[go: up one dir, main page]

JP4408355B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP4408355B2
JP4408355B2 JP2003290003A JP2003290003A JP4408355B2 JP 4408355 B2 JP4408355 B2 JP 4408355B2 JP 2003290003 A JP2003290003 A JP 2003290003A JP 2003290003 A JP2003290003 A JP 2003290003A JP 4408355 B2 JP4408355 B2 JP 4408355B2
Authority
JP
Japan
Prior art keywords
image
image information
person
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003290003A
Other languages
Japanese (ja)
Other versions
JP2005063010A (en
Inventor
慎志 秋道
雄気 本谷
浩明 金谷
英樹 赤松
英雄 北原
友一 大田
正司 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP2003290003A priority Critical patent/JP4408355B2/en
Publication of JP2005063010A publication Critical patent/JP2005063010A/en
Application granted granted Critical
Publication of JP4408355B2 publication Critical patent/JP4408355B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに係り、より詳しくは、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, it relates to an image processing method and image processing program, and more particularly, to an image processing instrumentation 置及 beauty image processing program for performing image processing for grasping the input and the status of the human for a given area.

病院、図書館、役所、劇場等の各種施設の稼働状況を評価することは当該施設を良好に機能させる上で非常に重要であり、当該稼働状況を評価するためには、施設内における利用者の移動状況を把握する必要がある。   It is very important to evaluate the operational status of various facilities such as hospitals, libraries, government offices, and theaters in order for the facility to function well. It is necessary to grasp the movement situation.

この方法として、施設利用者にRFID(Radio Frequency Identification)タグ等の非接触型で無線の発信機を配布して所持させると共に、施設内の必要箇所に当該発信機からの発信電波を受信する受信機を予め設置しておき、各受信機による受信結果に基づいて利用者の移動状況を把握する方法が考えられる。   In this method, facility users receive non-contact wireless transmitters such as RFID (Radio Frequency Identification) tags and receive them, and receive the radio waves from the transmitters at the necessary locations in the facility. A method is conceivable in which a machine is installed in advance and the movement status of the user is grasped based on the reception result of each receiver.

しかしながら、この方法は、各施設利用者に対する発信機の配布や回収に手間がかかると共に、受信機の設置や回収にも時間と費用がかかるため現実的ではない。   However, this method is not practical because it takes time and effort to distribute and collect transmitters to each facility user, and it also takes time and cost to install and collect receivers.

そこで、簡易かつ低コストに施設利用者の移動状況を把握するために適用できる技術として、特許文献1には、人間が通行する通路を撮影するためのカメラを設けると共に、当該通路に沿って複数の監視エリアを設定し、上記カメラによる撮影によって得られた画像データにおける各監視エリア毎に単位時間内にエリアを横切る人数をカウントし、当該人数累計値の各エリア間でのばらつきが一定範囲内であれば全監視エリアの人数累計値の平均値を真の人数累計値とし、ばらつきが一定範囲を超えた監視エリアがあれば当該エリアの画面内に内乱が発生したものと判断して当該エリアを除く監視エリアの人数累計値に基づいて真の人数累計値を算出する技術が開示されている。   Therefore, as a technique that can be applied to grasp the movement status of facility users simply and at low cost, Patent Document 1 is provided with a camera for photographing a passage through which a person passes, and a plurality of cameras along the passage. The number of people crossing the area within the unit time is counted for each monitoring area in the image data obtained by the above camera shooting, and the variation between the areas is within a certain range. If there is a monitoring area where the average value of the total number of people in all monitoring areas is the true total number of people and the variation exceeds a certain range, it is determined that a disturbance has occurred in the screen of that area. A technique for calculating the true total number of people based on the total number of people in the monitoring area excluding the above is disclosed.

この技術によれば、施設内の所定通路における通過人数を把握することができるので、当該技術を施設内の複数の通路に対して実施することにより、施設利用者の全体的な移動状況を把握することができる。
特開2002−74371公報
According to this technology, it is possible to grasp the number of people passing through a given passage in the facility, so it is possible to grasp the overall movement status of facility users by implementing this technology for multiple passages in the facility. can do.
JP 2002-74371 A

ところで、施設利用者による施設内の移動状況を把握するための一環として、当該施設内の所定室に対する利用者の入・退室状況を把握したい、という要望がある。例えば、当該施設が病院である場合、上記所定室として、内科、外科等の各診察室を例示することができる。この場合、当該診察室に対する患者の入室人数や退室人数を把握したり、各患者の当該診察室における滞在期間(診察期間)を把握することは、当該診察室の稼働状況を評価する上で非常に重要である。   By the way, as a part of grasping the movement situation in the facility by the facility user, there is a demand for grasping the user entry / exit situation with respect to a predetermined room in the facility. For example, when the facility is a hospital, the examination rooms such as internal medicine and surgery can be exemplified as the predetermined room. In this case, grasping the number of patients entering and leaving the examination room and knowing the stay period (examination period) of each patient in the examination room is very important in evaluating the operating status of the examination room. Is important to.

しかしながら、上記特許文献1の技術では、上記入室人数や退室人数を把握することはできるものの、上記滞在期間を把握することはできず、施設利用者の移動状況を充分には把握することができない、という問題点があった。   However, with the technique of Patent Document 1, although the number of people entering and leaving the room can be grasped, the stay period cannot be grasped, and the movement status of facility users cannot be grasped sufficiently. There was a problem that.

すなわち、上記特許文献1の技術では、画像の変化に基づいて監視エリアを横切る人数をカウントするものとされており、当該横切った人を特定することができないため、当該人の上記滞在期間を把握することはできない。   That is, in the technique of Patent Document 1, the number of people crossing the monitoring area is counted based on the change in the image, and the person who crosses the area cannot be specified. I can't do it.

本発明は上記問題点を解消するためになされたものであり、施設利用者の移動状況を高いレベルで把握することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and an object thereof is to provide an image processing instrumentation 置及 beauty image processing program that can recognize the moving condition of the facility users at a high level.

上記目的を達成するために、請求項1記載の画像処理装置は、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理装置であって、前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得手段と、前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出手段と、前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出手段と、前記第2抽出手段により抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を記憶する記憶手段と、を備えている。 In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus for performing image processing for grasping a person's entry / exit status with respect to a predetermined area, and entering the predetermined area and the predetermined area. An image acquisition means for capturing a plurality of pieces of image information by photographing a passage area through which a person passes when leaving the area at predetermined intervals; a plurality of pieces of image information acquired by the image acquisition means; and the passage area Compare with background image information predetermined as image information acquired by the image acquisition means in a state of not passing through, and from the plurality of image information, a time series of difference areas on the image with the background image information A person passes through the passing area to enter the predetermined area with the image information substantially matching the passing direction when the person passes through the passing area so that the moving direction in order enters the predetermined area. When Is extracted as the first image information obtained by photographing, leaving the image information substantially coincides with the passage direction when the moving direction is the passage of the passage region person to exit from the predetermined area from the predetermined area Therefore, the first extraction means for extracting as the second image information acquired by photographing when a person is passing through the passage area, and the newest first image information extracted by the first extraction means In the direction toward the old first image information, the first image extracted by the first extraction unit in the order of the oldest second image information from the newest second image information extracted by the first extraction unit. to extract the second image information and the first image information representing an image including irradiation combined and the same person and the extracted second image information by one image information and the first extracting means And it includes a second extracting means, a storage means for storing the acquisition time by each of the image acquisition unit of the first image information extracted and the second image data by the second extraction means.

請求項1記載の画像処理装置によれば、画像取得手段により、所定領域に入る際と前記所定領域から出る際に人が通過する通過領域が所定期間毎に撮影されて複数の画像情報が取得される。   According to the image processing apparatus of claim 1, the image acquisition unit acquires a plurality of pieces of image information by photographing a passing area through which a person passes when entering a predetermined area and exiting the predetermined area every predetermined period. Is done.

なお、上記通過領域は、1つの領域の場合もあるし、所定領域に入る際に人が通過する領域と所定領域から出る際に人が通過する領域とが異なる場合や、これらの領域の少なくとも1つが複数存在する場合等、複数の領域の場合もある。通過領域が1つの領域である場合は画像取得手段は1つのみ設ければよく、複数の領域である場合でも、各領域が比較的近くに位置する場合には画像取得手段は1つのみ設ければよい。これらの場合には、画像取得手段を複数設ける場合に比較して低コスト化することができると共に、処理を簡易化することができる。また、上記画像取得手段には、撮影によって被写体像のデジタル画像情報を取得するデジタル電子スチルカメラやデジタルビデオカメラ等のデジタルカメラが含まれる。   The passing area may be a single area, or the area through which a person passes when entering a predetermined area is different from the area through which a person passes when exiting the predetermined area, or at least of these areas There may be a plurality of regions, such as a case where a plurality of ones exist. If the passage area is a single area, only one image acquisition unit needs to be provided. Even in the case of a plurality of areas, only one image acquisition unit is provided if each area is located relatively close. Just do it. In these cases, the cost can be reduced as compared with the case where a plurality of image acquisition means are provided, and the processing can be simplified. The image acquisition means includes a digital camera such as a digital electronic still camera or a digital video camera that acquires digital image information of a subject image by photographing.

ここで、本発明では、第1抽出手段によって、前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報が前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出されると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報が前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出され、第2抽出手段によって、前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とが照合されて同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報が抽出される。 In the present invention, the first extraction unit Thus, as image information a person the passage region and a plurality of image information acquired is acquired by the image acquisition means in a state that has not passed by the image acquisition unit Compared with the predetermined background image information, and from the plurality of image information , the moving area in the time series order of the difference area on the image with the background image information enters the predetermined area, The image information substantially coincident with the passing direction when the person passes is extracted as first image information acquired by photographing when the person is passing through the passing area in order to enter the predetermined area , the image information passing substantially coincides with the direction the person the passage region to exit from the predetermined area is passing through when the moving direction passes person the passage region to exit from the predetermined area It is extracted as the second image information obtained by Kino shooting, to thus in a direction toward the oldest first image information from the most recent said first image information extracted by the first extracting means second extracting means The first image information extracted by the first extraction means and the first extraction means in order of the oldest second image information from the newest second image information extracted by the first extraction means. wherein the second image information and first image information representing an image including the extracted second image information and GaTeru engaged is by the same person are extracted.

更に、本発明では、第2抽出手段により抽出された第1画像情報及び第2画像情報の各々の画像取得手段による取得時間が記憶手段によって記憶される。なお、上記記憶手段には、RAM(Random Access Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュEEPROM(Flash EEPROM)等の半導体記憶素子、フロッピィディスク、CD−R(Compact Disc-Recordable)、CD−RW(Compact Disc-ReWritable)、光磁気ディスク等の可搬記録媒体やハードディスク等の固定記録媒体、或いはネットワークに接続されたサーバ・コンピュータ等に設けられた外部記憶装置が含まれる。   Further, in the present invention, the acquisition time by the image acquisition means of each of the first image information and the second image information extracted by the second extraction means is stored by the storage means. The storage means includes a RAM (Random Access Memory), an EEPROM (Electrically Erasable and Programmable Read Only Memory), a semiconductor storage element such as a flash EEPROM (Flash EEPROM), a floppy disk, and a CD-R (Compact Disc-Recordable). , A portable recording medium such as a CD-RW (Compact Disc-ReWritable), a magneto-optical disk, a fixed recording medium such as a hard disk, or an external storage device provided in a server computer connected to a network.

すなわち、本発明では、所定領域に入る際と当該所定領域から出る際に人が通過する領域を通過領域として規定し、当該通過領域を所定期間毎に撮影することによって、上記所定領域に対する人の入出を確実に捉えることができるようにしている。   That is, in the present invention, a region through which a person passes when entering and exiting a predetermined region is defined as a passing region, and the passing region is photographed every predetermined period, thereby allowing the human to pass the predetermined region. We are trying to capture the entry and exit with certainty.

従って、第1抽出手段により抽出された第1画像情報により示される画像と第2画像情報により示される画像には、互いに上記所定領域での滞在期間を隔てた時間間隔で、同一人物が高い確率で含まれることになる。   Therefore, in the image indicated by the first image information and the image indicated by the second image information extracted by the first extracting means, the same person has a high probability at a time interval separating the stay period in the predetermined area. Will be included.

そして、本発明では、以上のような第1画像情報と第2画像情報とによって示される各画像に含まれる人、すなわち、所定領域に入る人と所定領域から出る人とを照合して、同一人物が含まれる画像を示す第1画像情報及び第2画像情報を第2抽出手段により抽出し、当該抽出した第1、第2画像情報の各々の取得時間(各々の撮影時間であり、入場時間及び退場時間)を記憶するようにしているので、同一人物の所定領域に対する入場時間及び退場時間を正確に得ることができ、この結果として、当該人物の所定領域での滞在期間を正確に把握することができる。   And in this invention, the person contained in each image shown by the above 1st image information and 2nd image information, ie, the person who enters into a predetermined area, and the person who leaves a predetermined area, are collated, and it is the same First image information and second image information indicating an image including a person are extracted by the second extracting means, and each of the extracted first and second image information acquisition times (each shooting time, entrance time) And the exit time) can be stored accurately, so that the entrance time and the exit time for the predetermined area of the same person can be accurately obtained, and as a result, the stay period of the person in the predetermined area can be accurately grasped. be able to.

このように、請求項1に記載の画像処理装置によれば、所定領域に入る際と当該所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得し、取得された複数の画像情報と通過領域を人が通過していない状態で取得された画像情報として予め定められた背景画像情報とを比較し、複数の画像情報から、背景画像情報との画像上の差異領域の時系列順での移動方向が所定領域に入るために通過領域を人が通過するときの通過方向に略一致する画像情報を所定領域に入るために上記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、移動方向が所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する画像情報を上記所定領域から出るために上記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出し、抽出された最も新しい第1画像情報から最も古い第1画像情報に向かう方向に、抽出された最も新しい第2画像情報から最も古い第2画像情報の順で、抽出された第1画像情報と抽出された第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出し、抽出した第1画像情報及び第2画像情報の各々の取得時間を記憶しているので、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。 As described above, according to the image processing apparatus of the first aspect, a plurality of pieces of image information are obtained by photographing a passing area through which a person passes when entering and exiting the predetermined area for each predetermined period. And comparing the acquired plurality of image information with the background image information predetermined as the image information acquired in a state where the person does not pass through the passage area . Since the moving direction of the difference area on the image in time series order enters the predetermined area, the person passes the passing area to enter the predetermined area with the image information substantially matching the passing direction when the person passes the passing area. Extracted as first image information acquired by shooting when passing, and image information that substantially matches the passing direction when a person passes through the passing region in order for the moving direction to leave the predetermined region. To get out of the area Most serial passage region extracted as the second image information obtained by photographing when the person is passing, in the direction toward the oldest first image information from the most recent first image information extracted, the extracted in order of the oldest second image information from the new second image information, the first image information and second image information indicating an image including the irradiation combined and the same person that is extracted from the first image information extracted And the second image information is extracted, and the respective acquisition times of the extracted first image information and second image information are stored, so that it is possible to accurately grasp the stay period of the person in the predetermined area, As a result, the movement status of the facility user can be grasped at a high level.

なお、本発明は、請求項2に記載の発明のように、前記第1抽出手段が、前記画像取得手段によって取得された複数の画像情報の各々の前記通過領域に対応する全ての画素データと対応する前記背景画像情報の画素データとの差の絶対値を前記複数の画像情報毎に積算し、該積算結果が所定値以上の前記画像情報を抽出対象とするものである。 According to the present invention, as in the invention described in claim 2, the first extraction unit includes all the pixel data corresponding to each of the passage areas of the plurality of pieces of image information acquired by the image acquisition unit. The absolute value of the difference from the corresponding pixel data of the background image information is integrated for each of the plurality of image information, and the image information whose integration result is a predetermined value or more is extracted.

また、前記第1抽出手段は、請求項に記載の発明のように、前記画像取得手段によって取得された複数の画像情報の各々と前記背景画像情報とを比較し、該背景画像情報との画像上の差異領域の幅が所定幅以下の差異領域を抽出対象とすることが好ましい。
また、前記第1抽出手段は、請求項に記載の発明のように、前記画像取得手段により取得された複数の画像情報によって示される画像の輝度レベルが前記背景画像情報によって示される画像の輝度レベルに応じたレベルとなるように前記複数の画像情報を調整した後に前記第1画像情報及び前記第2画像情報を抽出することが好ましい。これによって、より高精度に第1画像情報及び第2画像情報を抽出することができる。
Further, as in the invention described in claim 3 , the first extraction unit compares each of the plurality of pieces of image information acquired by the image acquisition unit with the background image information, and compares the background image information with the background image information. It is preferable that a difference area whose difference area on the image is equal to or smaller than a predetermined width is an extraction target.
Further, as in a fourth aspect of the present invention, the first extraction unit is configured such that the luminance level of the image indicated by the plurality of pieces of image information acquired by the image acquisition unit is the luminance of the image indicated by the background image information. It is preferable to extract the first image information and the second image information after adjusting the plurality of pieces of image information so that the level is in accordance with the level. Thereby, the first image information and the second image information can be extracted with higher accuracy.

一方、本発明の前記第2抽出手段は、請求項に記載の発明のように、前記第1画像情報及び前記第2画像情報により示される各画像に含まれる人の画像領域を上半身領域及び下半身領域に分割し、当該上半身領域及び下半身領域の双方の一致度が所定度合より高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。これによって、より高精度に同一人物の含まれる画像を示す第1画像情報及び第2画像情報を抽出することができる。
特に、この場合、請求項に記載の発明のように、前記画像取得手段を、前記画像情報をカラーで取得するものとし、前記第2抽出手段が、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分との分布状態の一致度が所定度合より高く、かつ前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分との分布状態の一致度が所定度合より高い場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
また、前記第2抽出手段は、請求項に記載の発明のように、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲との重なり量の積算値、及び前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲との重なり量の積算値の双方が予め定められた積算値以上である場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
また、前記第2抽出手段は、請求項に記載の発明のように、前記第1画像情報により示される画像に含まれる人の着衣の柄と前記第2画像情報により示される画像に含まれる人の着衣の柄との一致度が所定度合いより高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出することが好ましい。
On the other hand, the second extraction means of the present invention, like the invention according to claim 5 , converts an image area of a person included in each image indicated by the first image information and the second image information into an upper body area and It is preferable to divide into lower body areas and extract the first image information and the second image information in which the degree of coincidence of both the upper body area and the lower body area is higher than a predetermined degree as indicating an image including the same person. Thereby, the first image information and the second image information indicating the image including the same person can be extracted with higher accuracy.
In particular, in this case, as in the invention described in claim 6 , the image acquisition means acquires the image information in color, and the second extraction means applies the image indicated by the first image information. The degree of coincidence of the distribution state between each color component of the upper body area of the included person and each color component of the upper body area of the person included in the image indicated by the second image information is higher than a predetermined degree, and the first image information When the degree of coincidence of the distribution state of each color component of the lower body area of the person included in the image indicated by the image and the color component of the lower body area of the person included in the image indicated by the second image information is higher than a predetermined degree It is preferable to extract the first image information and the second image information as indicating images including the same person.
Further, as in the invention described in claim 7 , the second extracting means is predetermined in a histogram of luminance values for each color component of the upper body region of the person included in the image indicated by the first image information. The amount of overlap between the luminance region range that is equal to or greater than the value and the luminance region range that is equal to or greater than the predetermined value in the histogram of luminance values for each color component of the upper body region of the person included in the image indicated by the second image information Indicated by the second image information and the luminance region range that is greater than or equal to a predetermined value in a histogram of luminance values for each color component of the lower body region of the person included in the image indicated by the first image information. Integrated value of the amount of overlap with the brightness area range that is equal to or greater than a predetermined value in the histogram of brightness values for each color component of the lower body area of the person included in the image It is preferable to extract both the first image information and the second image information in the case where the predetermined cumulative value or more as an indication of the image including the same person.
Further, as in the invention according to claim 8 , the second extraction means is included in a pattern of a person's clothes included in the image indicated by the first image information and the image indicated by the second image information. It is preferable to extract the first image information and the second image information whose degree of coincidence with the pattern of the person's clothes is higher than a predetermined degree as indicating an image including the same person.

なお、この場合、前記第2抽出手段は、請求項に記載の発明のように、前記第1画像情報により示される画像と前記第2画像情報により示される画像の同一画像領域における輝度レベルが等しくなるように前記第1画像情報及び前記第2画像情報の少なくとも一方を調整した後に前記抽出を行うことが好ましい。これによって、より高精度に同一人物の含まれる画像を示す第1画像情報及び第2画像情報を抽出することができる。 In this case, as in the invention according to claim 9 , the second extraction means has a luminance level in the same image area of the image indicated by the first image information and the image indicated by the second image information. The extraction is preferably performed after adjusting at least one of the first image information and the second image information so as to be equal. Thereby, the first image information and the second image information indicating the image including the same person can be extracted with higher accuracy.

また、本発明は、請求項10に記載の発明のように、前記記憶手段は、前記入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報を予め記憶すると共に、前記第1画像情報及び前記第2画像情報により示される人の画像の前記特徴量を示す特徴量情報と前記除外特徴量情報とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する判定手段と、前記判定手段により前記除外したい人であると判定された前記第1画像情報及び前記第2画像情報を処理対象から除外する除外手段と、を更に備える形態とすることができる。 Further, according to the present invention, as in the invention described in claim 10 , the storage means stores in advance excluded feature amount information indicating a predetermined feature amount of an image of a person who is to be excluded from the grasping target of the entry / exit status. And storing the feature amount information indicating the feature amount of the person's image indicated by the first image information and the second image information against the excluded feature amount information, so as to match the first image information and the first image information. Determining means for determining whether the person indicated by the two-image information is the person to be excluded, and the first image information and the second image information determined by the determining means to be the person to be excluded. An exclusion means for excluding from the processing target can be provided.

本発明によれば、入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報が記憶手段によって予め記憶される。なお、当該特徴量としては、上記除外したい人が定常的に身につけている着衣(例えば、本発明の所定領域において働いている従業員のユニフォーム)の色を示す物理量や、当該着衣の模様を示す物理量等を例示することができる。   According to the present invention, the excluded feature amount information indicating the predetermined feature amount of the image of the person who is to be excluded from the entry / exit status grasp target is stored in advance by the storage unit. In addition, as the feature quantity, a physical quantity indicating the color of clothing (for example, a uniform of an employee working in a predetermined area of the present invention) worn by a person who wants to be excluded, or a pattern of the clothing. The physical quantity to show etc. can be illustrated.

そして、本発明では、判定手段により、第1画像情報及び第2画像情報により示される人の画像の上記特徴量を示す特徴量情報と、上記除外特徴量情報とが照合されて、第1画像情報及び第2画像情報により示される人が上記除外したい人であるか否かが判定され、除外手段により、判定手段によって除外したい人であると判定された第1画像情報及び第2画像情報が処理対象から除外される。   In the present invention, the determination means collates the feature amount information indicating the feature amount of the human image indicated by the first image information and the second image information with the excluded feature amount information, and the first image is checked. It is determined whether or not the person indicated by the information and the second image information is the person who wants to be excluded, and the first image information and the second image information that are determined by the determining means to be excluded by the determining means. Excluded from processing.

このように、本発明によれば、入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報を予め記憶しておき、第1画像情報及び第2画像情報により示される人の画像の上記特徴量を示す特徴量情報と除外特徴量情報とを照合して、第1画像情報及び第2画像情報により示される人が除外したい人であるか否かを判定し、除外したい人であると判定された第1画像情報及び第2画像情報を処理対象から除外しているので、所定領域に対する入出状況を把握したい人のみを対象とすることができ、本発明の有用性を向上させることができる。
特に、この場合、請求項11に記載の発明のように、前記記憶手段が、前記除外特徴量情報として前記除外したい人の着衣の特徴を示す着衣特徴情報を予め記憶し、前記判定手段が、前記第1画像情報及び前記第2画像情報により示される人の着衣の特徴と前記着衣特徴情報により示される着衣の特徴とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定することが好ましい。
As described above, according to the present invention, the excluded feature amount information indicating the predetermined feature amount of the image of the person who is to be excluded from the entry / exit status grasp target is stored in advance, and the first image information and the second image information are stored. The feature amount information indicating the feature amount of the person's image indicated by the above and the excluded feature amount information are collated to determine whether the person indicated by the first image information and the second image information is a person to be excluded. Since the first image information and the second image information that are determined to be excluded are excluded from the processing target, only the person who wants to grasp the entry / exit status with respect to the predetermined area can be targeted. The usefulness of can be improved.
Particularly, in this case, as in the invention described in claim 11 , the storage unit stores in advance the clothing feature information indicating the feature of the clothing of the person desired to be excluded as the excluded feature amount information, and the determination unit includes: The first image information and the second image information indicate the characteristics of the person's clothing indicated by the first image information and the second image information and the characteristics of the clothing indicated by the clothing characteristic information. It is preferable to determine whether or not a person is the person who wants to be excluded.

ところで、本発明における第1抽出手段及び第2抽出手段による抽出は自動で行われるため、抽出漏れが発生する場合も考えられる。   By the way, since the extraction by the first extraction means and the second extraction means in the present invention is performed automatically, there may be a case where an extraction omission occurs.

そこで、本発明は、請求項12に記載の発明のように、前記第1抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像、及び前記第2抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像を表示するための表示手段と、前記表示手段により表示された画像において、前記所定領域に入るために前記通過領域を人が通過しているときの画像を指定する第1指定、及び前記所定領域から出るために前記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定を入力する指定入力手段と、各々同一人物を含む前記第1指定により指定された画像と前記第2指定により指定された画像とを対応付ける対応付け指示を入力する対応付け指示入力手段と、前記対応付け指示入力手段によって入力された対応付け指示により対応付けられた前記第1指定により指定された画像及び前記第2指定により指定された画像を示す前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を前記記憶手段に記憶するように制御を行う制御手段と、を更に備えることが好ましい。 Therefore, as in the invention described in claim 12 , the present invention provides each image indicated by the first image information and the second image information that has not been extracted by the first extraction means, and the second extraction means. Display means for displaying each image indicated by the first image information and the second image information not extracted by the display means, and in the image displayed by the display means, the passage area for entering the predetermined area A first designation for designating an image when a person is passing through and a second designation for designating an image when a person is passing through the passing area to exit the predetermined area. A designation instruction for inputting, a designation instruction for associating the image designated by the first designation and the image designated by the second designation, each including the same person. The first image information indicating the image specified by the first specification and the image specified by the second specification, and the image specified by the second specification, which are associated by the association instruction input by the association instruction input unit. It is preferable to further comprise control means for performing control so that the acquisition time of each of the second image information by the image acquisition means is stored in the storage means.

本発明によれば、第1抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像、及び第2抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像が表示手段によって表示される。なお、このとき、表示手段により表示する画像は、第1抽出手段及び第2抽出手段により抽出されなかった全ての画像情報により示される画像としてもよいし、一部の画像情報により示される画像のみとしてもよい。また、上記表示手段には、液晶ディスプレイ、CRTディスプレイ、プラズマ・ディスプレイ、有機ELディスプレイ等のディスプレイが含まれる。   According to the present invention, each image indicated by the first image information and the second image information not extracted by the first extraction means, and the first image information and the second image information not extracted by the second extraction means. Each image shown is displayed by the display means. At this time, the image displayed by the display means may be an image indicated by all image information not extracted by the first extraction means and the second extraction means, or only an image indicated by a part of the image information. It is good. The display means includes a display such as a liquid crystal display, a CRT display, a plasma display, and an organic EL display.

そして、本発明では、表示手段により表示された画像において、上記所定領域に入るために上記通過領域を人が通過しているときの画像を指定する第1指定、上記所定領域から出るために上記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定が指定入力手段によって入力される。
また、本発明では、各々同一人物を含む第1指定により指定された画像と第2指定により指定された画像とを対応付ける対応付け指示が対応付け指示入力手段によって入力される。
なお、上記指定入力手段及び対応付け指示入力手段には、第1指定、第2指定、及び対応付け指示を入力するために操作されるマウス、トラック・ボール、タブレット等のポインティング・デバイスや、キーボード、各種スイッチ類が含まれる。
In the present invention, in the image displayed by the display means, a first designation for designating an image when a person is passing through the passing area to enter the predetermined area, and the above-mentioned for exiting from the predetermined area. At least one of the specified second specified is inputted by the specification input means for designating an image when the passage region people are passing through.
In the present invention, the association instruction input unit inputs an association instruction for associating the image designated by the first designation including the same person with the image designated by the second designation.
The designation input unit and the association instruction input unit include a pointing device such as a mouse, a track ball, and a tablet operated to input the first designation, the second designation, and the association instruction , and a keyboard. Various switches are included.

すなわち、本発明では、本発明の第1抽出手段及び第2抽出手段により抽出されなかった画像情報、すなわち、各抽出手段による抽出対象から漏れた可能性のある画像情報による画像を表示手段により表示すると共に、これらの中から第1抽出手段により抽出対象とされている画像情報を指定した上で、第2抽出手段により抽出対象とされている画像情報を指定できるようにしており、これによって第1、第2抽出手段による抽出対象から漏れた画像情報を、表示手段に表示された画像に対する人による視覚的な判断によって抽出することを可能としている。 That is, in the present invention, the display means displays the image information that has not been extracted by the first extraction means and the second extraction means of the present invention, that is, the image based on the image information that may have been leaked from the extraction target by each extraction means. while, after designating the image information being subject to extraction by the first extraction means from among these, has been to specify the image information which is the extraction target by the second extraction means, whereby Image information leaked from the extraction target by the first and second extraction means can be extracted by visual judgment by a person with respect to the image displayed on the display means.

このように、本発明によれば、第1抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像、及び第2抽出手段により抽出されなかった第1画像情報及び第2画像情報により示される各画像を表示手段により表示し、当該表示した画像において、上記所定領域に入るために上記通過領域を人が通過しているときの画像を指定する第1指定、上記所定領域から出るために上記通過領域を人が通過しているときの画像を指定する第2指定、及び各々同一人物を含む第1指定により指定された画像と第2指定により指定された画像とを対応付ける対応付け指示を入力することができるので、本発明の第1抽出手段及び第2抽出手段による抽出漏れを補うことができる。 Thus, according to the present invention, each image indicated by the first image information and the second image information that has not been extracted by the first extraction means, and the first image information and the first image information that have not been extracted by the second extraction means. Each image indicated by the two-image information is displayed on the display means, and in the displayed image, a first designation for designating an image when a person passes through the passage area to enter the predetermined area, the predetermined designation A second designation for designating an image when a person is passing through the passing area to exit the area, and an image designated by the first designation and the image designated by the second designation, each including the same person. Since the association instruction to be associated can be input, the extraction omission by the first extraction unit and the second extraction unit of the present invention can be compensated.

また、上記目的を達成するために、請求項13記載の画像処理プログラムは、所定領域に対する人の入出状況を把握するための画像処理を行う画像処理プログラムであって、前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得ステップと、前記画像取得ステップにより取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得ステップにより取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出ステップと、前記第1抽出ステップにより抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出ステップにより抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出ステップにより抽出された前記第1画像情報と前記第1抽出ステップにより抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出ステップと、前記第2抽出ステップにより抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得ステップによる取得時間を記憶手段に記憶する記憶ステップと、をコンピュータに実行させるものである。 In order to achieve the above object, an image processing program according to claim 13 is an image processing program for performing image processing for grasping a person's entering / exiting status with respect to a predetermined area, when entering the predetermined area; An image acquisition step of acquiring a plurality of pieces of image information by photographing a passage region through which a person passes when exiting the predetermined region, and a plurality of pieces of image information acquired by the image acquisition step and the passage region. Compared with the background image information predetermined as the image information acquired by the image acquisition step in a state where no person has passed, and from the plurality of image information, the difference area on the image with the background image information before to enter the image information substantially coincides with the passage direction when the moving direction in chronological order to the passage region human pass to enter the predetermined region in the predetermined region Substantially with the passage region human is extracted as first image information obtained by photographing it passes through, in the passing direction when the moving direction is the passage region human pass to exit from the predetermined area A first extraction step of extracting the matching image information as second image information acquired by photographing when a person is passing through the passage region in order to exit the predetermined region, and extraction by the first extraction step In the direction from the newest first image information to the oldest first image information, in the order of the oldest second image information from the newest second image information extracted by the first extraction step, It includes irradiation combined and the same person and the extracted second image information by the the extracted first image information first extraction step by the first extraction step A second extraction step for extracting the first image information indicating the image and the second image information; and the image acquisition step for each of the first image information and the second image information extracted by the second extraction step. And a storage step of storing the acquisition time in the storage means.

従って、請求項13に記載の画像処理プログラムによれば、コンピュータに対して請求項1記載の発明と同様に作用させることができるので、請求項1記載の発明と同様に、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。 Therefore, according to the image processing program of the thirteenth aspect , the computer can be operated in the same manner as the first aspect of the invention. As a result, it is possible to grasp the movement status of the facility user at a high level.

本発明によれば、所定領域に入る際と当該所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得し、取得された複数の画像情報と通過領域を人が通過していない状態で取得された画像情報として予め定められた背景画像情報とを比較し、複数の画像情報から、背景画像情報との画像上の差異領域の時系列順での移動方向が所定領域に入るために通過領域を人が通過するときの通過方向に略一致する画像情報を所定領域に入るために上記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、移動方向が所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する画像情報を上記所定領域から出るために上記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出し、抽出された最も新しい第1画像情報から最も古い第1画像情報に向かう方向に、抽出された最も新しい第2画像情報から最も古い第2画像情報の順で、抽出された第1画像情報と抽出された第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出し、抽出した第1画像情報及び第2画像情報の各々の取得時間を記憶しているので、所定領域での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる、という効果が得られる。 According to the present invention, a plurality of pieces of acquired image information and passages are acquired by photographing a passing region through which a person passes when entering a predetermined region and exiting from the predetermined region for each predetermined period. Compared with background image information predetermined as image information acquired in a state where no person has passed through the region, from a plurality of image information in the time-series order of the difference region on the image with the background image information Image information that substantially matches the passing direction when a person passes through the passing area because the moving direction enters the predetermined area was acquired by photographing when the person was passing the passing area to enter the predetermined area. The first image information is extracted, and the person passes through the passage area in order to exit the predetermined area of image information that substantially matches the passage direction when the person passes through the passage area in order to move out of the predetermined area. When passing Extracted as second image information obtained by photographing, in the direction towards the oldest first image information from the most recent first image information extracted, the oldest second image information from the most recent second image information extracted successively with a, and a second image information extracted from the first image information extracted irradiation combined extracts said second image data and the first image information representing an image including the same person, extracted Since the acquisition time of each of the first image information and the second image information is stored, it is possible to accurately grasp the staying period of the person in the predetermined area, and as a result, the movement situation of the facility user is high. The effect of being able to grasp by level is obtained.

以下、図面を参照して、本発明を実施するための最良の形態について詳細に説明する。なお、ここでは、本発明を、病院の診察室に対する患者の移動状況を把握する用途に適用した場合の形態について説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the drawings. In addition, the form at the time of applying this invention to the use which grasps | ascertains the movement state of the patient with respect to the examination room of a hospital is demonstrated here.

〔第1の実施の形態〕
まず、図1を参照して、本発明が適用された施設利用者計測システム10の構成を説明する。
[First Embodiment]
First, the configuration of a facility user measurement system 10 to which the present invention is applied will be described with reference to FIG.

同図に示すように、本形態に係る施設利用者計測システム10には、施設利用者計測装置20が備えられている。この施設利用者計測装置20には、本装置の全体的な動作を制御する制御部36、操作者からの各種情報等の入力に使用するキーボード30及びマウス32、本装置による処理結果や各種メニュー画面、メッセージ等を表示するディスプレイ34が備えられている。すなわち、本実施の形態に係る施設利用者計測装置20は、汎用のパーソナル・コンピュータで構成されている。   As shown in the figure, the facility user measurement system 10 according to this embodiment includes a facility user measurement device 20. The facility user measuring device 20 includes a control unit 36 for controlling the overall operation of the apparatus, a keyboard 30 and a mouse 32 used for inputting various information from the operator, processing results and various menus by the apparatus. A display 34 for displaying a screen, a message, and the like is provided. That is, the facility user measuring device 20 according to the present embodiment is configured by a general-purpose personal computer.

一方、施設利用者計測システム10には、予め設定された期間毎にカラー静止画像を撮影するデジタル電子スチルカメラ(以下、「カメラ」という。)50が備えられており、当該カメラ50は施設利用者計測装置20に電気的に接続されている。なお、カメラ50と施設利用者計測装置20の接続形態には特に限定はないが、本実施の形態では、ネットワークを介して接続している。これにより、カメラ50と施設利用者計測装置20との間が比較的離れていても容易に接続することができ、施設利用者計測システム10を柔軟に構築することができる。   On the other hand, the facility user measurement system 10 includes a digital electronic still camera (hereinafter referred to as “camera”) 50 that captures a color still image for each preset period. It is electrically connected to the person measuring device 20. In addition, although there is no limitation in the connection form of the camera 50 and the facility user measuring device 20, in this Embodiment, it connects via the network. Thereby, even if the camera 50 and the facility user measuring device 20 are relatively distant from each other, they can be easily connected, and the facility user measuring system 10 can be flexibly constructed.

次に、図2を参照して、施設利用者計測システム10の電気系の構成を説明する。   Next, the configuration of the electrical system of the facility user measurement system 10 will be described with reference to FIG.

同図に示すように、施設利用者計測装置20は、施設利用者計測装置20全体の動作を司るCPU(中央処理装置)22と、CPU22による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24と、各種処理プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)26と、各種情報を記憶するために用いられるハードディスク28と、前述のキーボード30、マウス32、及びディスプレイ34と、外部に接続された装置との間の各種情報の授受を司る外部インタフェース36と、がシステムバスBUSにより相互に接続されて構成されている。なお、外部インタフェース36には、前述のカメラ50の、撮影によって得られたカラー静止画像を示すデジタル画像データを出力する出力端子が接続されている。   As shown in the figure, the facility user measuring device 20 is used as a CPU (central processing unit) 22 that controls the operation of the facility user measuring device 20 as a whole and a work area when the CPU 22 executes various processing programs. A RAM (Random Access Memory) 24, a ROM (Read Only Memory) 26 in which various processing programs and various parameters are stored in advance, a hard disk 28 used for storing various information, the keyboard 30 and the mouse 32 described above. , And the display 34 and an external interface 36 that controls transmission and reception of various information between the devices connected to the outside are connected to each other via a system bus BUS. The external interface 36 is connected to an output terminal for outputting digital image data indicating a color still image obtained by photographing of the camera 50 described above.

従って、CPU22は、RAM24、ROM26、及びハードディスク28に対するアクセス、キーボード30及びマウス32を介した各種入力情報の取得、ディスプレイ34に対する各種情報の表示、及び外部インタフェース36を介したカメラ50からのデジタル画像データの取得、を各々行うことができる。   Therefore, the CPU 22 accesses the RAM 24, the ROM 26, and the hard disk 28, acquires various input information via the keyboard 30 and the mouse 32, displays various information on the display 34, and the digital image from the camera 50 via the external interface 36. Data acquisition can be performed.

なお、カメラ50は、撮影によって得られたデジタル画像データを所定の圧縮形式(ここでは、JPEG形式)で圧縮した後に施設利用者計測装置20に出力するように設定されており、これによってデジタル画像データの高速な転送を実現している。   The camera 50 is set to output the digital image data obtained by photographing to the facility user measuring apparatus 20 after compressing the digital image data in a predetermined compression format (here, JPEG format). Realizes high-speed data transfer.

また、図3に示すように、カメラ50は、病院60の待合室64における天井面及び壁面の境界位置近傍で、患者の移動状況の把握対象とされた診察室62の入退室口66が撮影できる位置に設置されている。   In addition, as shown in FIG. 3, the camera 50 can take an image of the entrance / exit 66 of the examination room 62, which is the subject of grasping the patient's movement status, in the vicinity of the boundary between the ceiling surface and the wall surface in the waiting room 64 of the hospital 60. In place.

図4には、当該カメラ50による撮影によって得られた画像70の一例が示されている。なお、同図では、便宜上、当該画像70が線画で表現されているが、実際には所定解像度とされたカラー画像となっていることは言うまでもない。   FIG. 4 shows an example of an image 70 obtained by photographing with the camera 50. In the figure, for convenience, the image 70 is represented by a line drawing, but it goes without saying that the image 70 is actually a color image having a predetermined resolution.

同図に示すように、この画像70は、診察室62の入退室口66が含まれると共に、待合室64の内部が含まれたものとされている。   As shown in the figure, this image 70 includes the entrance / exit 66 of the examination room 62 and the inside of the waiting room 64.

ところで、本実施の形態に係る施設利用者計測システム10では、図5に示すように、カメラ50による撮影エリアにおける入退室口66を含む所定面積とされた矩形領域が判定エリアA1として予め定められている。また、施設利用者計測システム10では、当該撮影エリアにおける人が存在する可能性の著しく低い壁面に対応する矩形領域が輝度補正エリアA2として予め定められている。なお、同図に示した判定エリアA1及び輝度補正エリアA2の位置は一例であり、適宜変更することができる。   By the way, in the facility user measurement system 10 according to the present embodiment, as shown in FIG. 5, a rectangular area having a predetermined area including the entrance / exit port 66 in the shooting area by the camera 50 is predetermined as the determination area A1. ing. Further, in the facility user measurement system 10, a rectangular area corresponding to a wall surface with a very low possibility that a person in the photographing area is present is predetermined as the luminance correction area A2. Note that the positions of the determination area A1 and the luminance correction area A2 shown in the figure are examples, and can be changed as appropriate.

そして、本形態に係る施設利用者計測システム10では、判定エリアA1に人が存在しないときのカメラ50による撮影によって得られたデジタル画像データの、当該判定エリアA1に対応するデジタル画像データを背景画像情報として施設利用者計測装置20のハードディスク28の所定領域に予め記憶している。同様に、施設利用者計測システム10では、輝度補正エリアA2に人が存在しないときのカメラ50による撮影によって得られたデジタル画像データの、当該輝度補正エリアA2に対応するデジタル画像データを輝度補正画像情報としてハードディスク28の所定領域に予め記憶している。   In the facility user measurement system 10 according to the present embodiment, the digital image data corresponding to the determination area A1 of the digital image data obtained by photographing with the camera 50 when no person is present in the determination area A1 is used as the background image. Information is stored in advance in a predetermined area of the hard disk 28 of the facility user measuring apparatus 20. Similarly, in the facility user measurement system 10, the digital image data corresponding to the luminance correction area A2 of the digital image data obtained by photographing with the camera 50 when no person is present in the luminance correction area A2 is used as the luminance correction image. Information is stored in advance in a predetermined area of the hard disk 28.

なお、本実施の形態に係る施設利用者計測システム10には、病院60で働く医師、看護士、放射線技師等の従業員と患者とを、着衣の特徴に基づいて判別する機能が備えられている。そして、ハードディスク28の所定領域には、上記従業員の着衣(本実施の形態では、白衣)の色成分(以下、「除外色成分」という。)を示す情報が予め記憶されている。   The facility user measurement system 10 according to the present embodiment has a function of discriminating employees and patients such as doctors, nurses, and radiographers working at the hospital 60 based on the characteristics of clothing. Yes. In a predetermined area of the hard disk 28, information indicating the color component (hereinafter referred to as “excluded color component”) of the clothes of the employee (in this embodiment, white robe) is stored in advance.

次に、本実施の形態に係る施設利用者計測システム10の作用を説明する。まず、図6を参照して、施設利用者計測装置20において予め定められた計測期間(本実施の形態では、午前9時から午後4時30分までの期間)内に実行される施設利用者計測処理について説明する。なお、図6は、上記計測期間に施設利用者計測装置20のCPU22によって実行される施設利用者計測処理プログラムの処理の流れを示すフローチャートであり、該プログラムはROM26の所定領域に予め記憶されている。また、ここでは、カメラ50による撮影間隔(ここでは、0.2秒)が予め設定されている場合について説明する。すなわち、本実施の形態では、カメラ50から施設利用者計測装置20に対して、毎秒5枚のカラー静止画像を示すデジタル画像データが送信されるように設定されている。   Next, the operation of the facility user measurement system 10 according to the present embodiment will be described. First, referring to FIG. 6, the facility user that is executed within a predetermined measurement period (in this embodiment, a period from 9:00 am to 4:30 pm) in facility user measurement device 20. The measurement process will be described. FIG. 6 is a flowchart showing the processing flow of the facility user measurement processing program executed by the CPU 22 of the facility user measuring device 20 during the measurement period, and the program is stored in a predetermined area of the ROM 26 in advance. Yes. Here, a case will be described in which a shooting interval (here, 0.2 seconds) by the camera 50 is set in advance. That is, in the present embodiment, it is set so that digital image data indicating five color still images per second is transmitted from the camera 50 to the facility user measuring apparatus 20.

まず、ステップ100では、カメラ50からのカラー静止画像1枚分のデジタル画像データの受信待ちを行い、次のステップ102では、受信したデジタル画像データをハードディスク28の所定領域に記憶する。なお、このとき、当該デジタル画像データを電子化ファイル(画像ファイル)として記憶しており、当該画像ファイルにはデジタル画像データを取得した時刻を示す情報(所謂タイム・スタンプ)が自動的に記憶されることになる。   First, in step 100, reception of digital image data for one color still image from the camera 50 is waited for, and in the next step 102, the received digital image data is stored in a predetermined area of the hard disk 28. At this time, the digital image data is stored as an electronic file (image file), and information (so-called time stamp) indicating the time when the digital image data is acquired is automatically stored in the image file. Will be.

次のステップ104では、カメラ50から受信してハードディスク28に記憶したデジタル画像データが所定数(本実施の形態では、2秒間の撮影により得られるデジタル画像データの数)に達したか否かを判定し、否定判定の場合は上記ステップ100に戻り、肯定判定となった時点でステップ106に移行する。   In the next step 104, it is determined whether or not the digital image data received from the camera 50 and stored in the hard disk 28 has reached a predetermined number (in this embodiment, the number of digital image data obtained by photographing for 2 seconds). If the determination is negative and the determination is negative, the process returns to step 100. When the determination is affirmative, the process proceeds to step 106.

なお、上記ステップ100〜ステップ104の繰り返し処理は、ステップ106以降の処理を上記所定数のデジタル画像データが記憶される毎に行うようにするためのものであり、上記ステップ104では、それまでにステップ106以降の処理の対象とされなかったデジタル画像データの数が上記所定数との比較対象とされる。以下の説明では、当該所定数の処理対象とするデジタル画像データを「処理対象画像データ」という。本実施の形態では、2秒間の撮影により得られるデジタル画像データの数に相当する10枚分の画像を示すデジタル画像データが処理対象画像データとなる。   The repetitive processing from step 100 to step 104 is for performing the processing after step 106 every time the predetermined number of digital image data is stored. The number of digital image data that has not been processed in step 106 and subsequent steps is compared with the predetermined number. In the following description, the predetermined number of digital image data to be processed is referred to as “processing target image data”. In the present embodiment, digital image data indicating 10 images corresponding to the number of digital image data obtained by shooting for 2 seconds is image data to be processed.

ステップ106では、処理対象画像データにより示される画像の判定エリアA1における輝度レベルが上記背景画像情報により示される画像の輝度レベルに応じたレベルとなるように処理対象画像データを調整する。なお、当該調整は、上記所定数の処理対象画像データの各々を圧縮形式に応じた形式で伸張した後に行う。   In step 106, the processing target image data is adjusted so that the luminance level in the determination area A1 of the image indicated by the processing target image data becomes a level corresponding to the luminance level of the image indicated by the background image information. The adjustment is performed after each of the predetermined number of pieces of processing target image data is expanded in a format corresponding to the compression format.

本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。   In the present embodiment, the luminance level is adjusted as follows as an example.

まず、判定エリアA1における人が通過する可能性の低い一部領域(例えば、判定エリアA1の上端部近傍の領域)に対応する背景画像情報の画素データのR(赤)、G(緑)、B(青)毎の平均値BR、BG、BBを算出すると共に、当該一部領域に対応する各処理対象画像データの画素データのR、G、B毎の平均値TR、TG、TBを算出する。   First, the pixel data R (red), G (green) of the background image information corresponding to a partial region (for example, a region near the upper end of the determination area A1) that is unlikely to pass through in the determination area A1. The average values BR, BG, and BB for each B (blue) are calculated, and the average values TR, TG, and TB for the pixel data of each processing target image data corresponding to the partial area are calculated for each R, G, and B. To do.

次に、平均値BRに対する平均値TRの割合を示す係数CR(=BR/TR)と、平均値BGに対する平均値TGの割合を示す係数CG(=BG/TG)と、平均値BBに対する平均値TBの割合を示す係数CB(=BB/TB)と、を各処理対象画像データ毎に算出する。   Next, a coefficient CR (= BR / TR) indicating a ratio of the average value TR to the average value BR, a coefficient CG (= BG / TG) indicating a ratio of the average value TG to the average value BG, and an average with respect to the average value BB A coefficient CB (= BB / TB) indicating the ratio of the value TB is calculated for each processing target image data.

最後に、各処理対象画像データ毎に、処理対象画像データの判定エリアA1におけるRの各画素データに対して当該処理対象画像データにおける係数CRを、処理対象画像データの判定エリアA1におけるGの各画素データに対して当該処理対象画像データにおける係数CGを、処理対象画像データの判定エリアA1におけるBの各画素データに対して当該処理対象画像データにおける係数CBを、各々乗算する。   Finally, for each piece of processing target image data, a coefficient CR in the processing target image data for each pixel data of R in the processing target image data determination area A1, and each of G in the processing target image data determination area A1. The pixel data is multiplied by the coefficient CG in the processing target image data, and the pixel data of B in the processing target image data determination area A1 is multiplied by the coefficient CB in the processing target image data.

なお、処理対象画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象画像データの判定エリアA1における輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。   Note that the method of adjusting the luminance level of the processing target image data is not limited to the above method. For example, when the digital image data obtained by the camera 50 has a format indicated by a luminance signal and a color difference signal, the luminance signal is applied instead of the R, G, and B values to be processed. The brightness level in the image data determination area A1 can be adjusted. Further, for example, the coefficient is not calculated for all of R, G, and B as described above, but the coefficient is calculated for only one color component of R, G, and B, and the coefficient is calculated for all the color components. It can also be applied to the adjustment of the luminance level.

処理対象画像データの判定エリアA1における輝度レベルの調整が終了すると、次のステップ108では、各処理対象画像データ毎に、処理対象画像データと背景画像情報との差分値Dを算出する。   When the adjustment of the luminance level in the determination area A1 of the processing target image data is completed, in the next step 108, a difference value D between the processing target image data and the background image information is calculated for each processing target image data.

なお、本実施の形態では、当該差分値Dを、一例として次のように算出する。   In the present embodiment, the difference value D is calculated as follows as an example.

まず、処理対象画像データの判定エリアA1における全ての画素データと背景画像情報の対応する画素データとの差の絶対値を、R、G、B毎で、かつ各処理対象画像データ毎に算出する。   First, the absolute value of the difference between all the pixel data in the determination area A1 of the processing target image data and the corresponding pixel data of the background image information is calculated for each processing target image data for each of R, G, and B. .

次に、算出した全ての上記絶対値を各処理対象画像データ毎に積算することにより差分値Dを算出する。   Next, the difference value D is calculated by integrating all the calculated absolute values for each processing target image data.

なお、差分値Dの算出方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号及び色差信号の少なくとも一方を適用することにより処理対象画像データと背景画像情報との差分値Dを算出することができる。   Note that the method of calculating the difference value D is not limited to the above method. For example, when the digital image data obtained by the camera 50 has a format indicated by a luminance signal and a color difference signal, at least one of the luminance signal and the color difference signal is used instead of the R, G, and B values. By applying, the difference value D between the processing target image data and the background image information can be calculated.

なお、当該差分値Dの算出時において、各処理対象画像データ毎に、処理対象画像データによって示される画像の背景画像情報により示される画像から変化している領域(以下、「画像変化領域」という。)を抽出し、当該画像変化領域を示す情報を対応する処理対象画像データに関連付けた状態でハードディスク28の所定領域に記憶しておく。   Note that, at the time of calculating the difference value D, for each processing target image data, an area changed from the image indicated by the background image information of the image indicated by the processing target image data (hereinafter referred to as “image change area”). .) Is extracted, and information indicating the image change area is stored in a predetermined area of the hard disk 28 in association with the corresponding processing target image data.

ここで、本実施の形態では、当該画像変化領域の抽出を、R、G、Bの少なくとも1つについて上記絶対値が所定値(例えば、画素データの最大値(画素データが8ビット構成である場合では‘255’)の半分の値。)以上となった画素群を当該画像変化領域として抽出することにより行っているが、他の方法として、例えば、R、G、Bの全てについて上記絶対値が上記所定値以上となった画素群を当該画像変化領域として抽出することにより行う形態等、処理対象画像データと背景画像情報との間の変化領域(差異領域)を抽出することのできるあらゆる方法を適用することができる。   Here, in the present embodiment, the extraction of the image change area is performed by extracting the absolute value of at least one of R, G, and B with a predetermined value (for example, the maximum value of pixel data (pixel data has an 8-bit configuration). In some cases, the value is half of “255”).) The above pixel group is extracted as the image change region. However, as another method, for example, the absolute value of all of R, G, and B is used. Any area that can extract a change area (difference area) between image data to be processed and background image information, such as a mode in which a pixel group having a value equal to or greater than the predetermined value is extracted as the image change area The method can be applied.

各処理対象画像データ毎の差分値Dの算出が終了すると、次のステップ110では、各差分値Dの中に所定値以上となるものが存在するか否かを判定し、否定判定となった場合は処理対象画像データに人の画像が含まれるものはなかったものと判断して上記ステップ100に戻り、肯定判定となった場合にはステップ112に移行する。なお、ここで適用する所定値は、差分値Dが当該値以上となった場合に、当該差分値Dに対応する処理対象画像データにより示される画像の判定エリアA1に人の画像が含まれる可能性が高いものと見なせる値として、実験により統計的に予め得られた値や、コンピュータ・シミュレーションで予め得られた値等を適用することができる。   When the calculation of the difference value D for each processing target image data is completed, in the next step 110, it is determined whether or not there is a difference value D that is equal to or greater than a predetermined value, and a negative determination is made. In this case, it is determined that there is no person image included in the processing target image data, and the process returns to step 100. If the determination is positive, the process proceeds to step 112. The predetermined value applied here may include a human image in the determination area A1 of the image indicated by the processing target image data corresponding to the difference value D when the difference value D is equal to or greater than the value. As a value that can be regarded as having high performance, a value statistically obtained in advance by experiment, a value obtained in advance by computer simulation, or the like can be applied.

ステップ112では、上記ステップ110において肯定判定となった差分値Dに対応する全ての処理対象画像データにおける画像変化領域の幅Wを算出し、次のステップ114では、算出した幅Wが所定幅(ここでは、標準的な人の幅の2倍に相当する幅)以下となる処理対象画像データが存在するか否かを判定し、否定判定の場合は処理対象画像データに一人のみの画像が含まれるものはなかったものと判断して上記ステップ100に戻り、肯定判定となった場合にはステップ116に移行する。なお、ここで、ステップ116に移行する際には、幅Wが所定幅以下となった処理対象画像データを、所定フラグを立てる等の処理により、以降の処理の対象となる画像データ(以下、「実処理対象画像データ」という。)であるものとして識別可能としておく。   In step 112, the width W of the image change area in all the processing target image data corresponding to the difference value D for which affirmative determination is made in step 110 is calculated. In the next step 114, the calculated width W is a predetermined width ( Here, it is determined whether or not there is processing target image data that is equal to or smaller than a width of a standard person, and in the case of a negative determination, only one person is included in the processing target image data. It is determined that there is nothing to be performed, and the process returns to step 100. If the determination is affirmative, the process proceeds to step. Here, when the process proceeds to step 116, the processing target image data whose width W is equal to or smaller than the predetermined width is processed into image data (hereinafter, referred to as a target for subsequent processing) by processing such as setting a predetermined flag. It can be identified as being “actual processing target image data”).

ステップ116では、各実処理対象画像データ毎に、画像変化領域における色成分を示す情報と上記除外色成分を示す情報との間の一致度Cを算出する。なお、ここでは、画像変化領域における全画素数に対する、除外色成分と略同一の色成分となる画素数の占める割合(%)を当該一致度Cとしているが、これに限るものではない。   In step 116, the degree of coincidence C between the information indicating the color component in the image change area and the information indicating the excluded color component is calculated for each actual processing target image data. Here, the ratio (%) of the number of pixels that are substantially the same color component as the excluded color component to the total number of pixels in the image change area is the matching degree C, but the present invention is not limited to this.

次のステップ118では、算出した一致度Cが所定値(ここでは、90%)以上であるか否かを各実処理対象画像データ毎に判定し、肯定判定となった実処理対象画像データに対してはステップ120において従業員であることを示す属性を付与し、否定判定となった実処理対象画像データに対してはステップ122において非従業員であることを示す属性を付与した後にステップ124に移行する。   In the next step 118, it is determined for each actual processing target image data whether or not the calculated degree of coincidence C is equal to or greater than a predetermined value (in this case, 90%). On the other hand, an attribute indicating that the employee is an employee is assigned in step 120, and an attribute indicating that the employee is a non-employee is assigned in step 122 to the actual processing target image data that is negatively determined. Migrate to

ステップ124では、実処理対象画像データにより示される画像における画像変化領域の変化方向を検出する。本実施の形態では、一例として図7に示すように、判定エリアA1における診察室62への入室時の人の移動方向は左から右へ向かう方向(以下、「入室方向」という。)とされ、診察室62からの退室時の人の移動方向は右から左へ向かう方向(以下、「退室方向」という。)とされているため、ここでは、入室方向及び退室方向の何れか一方が検出されることになる。   In step 124, the change direction of the image change area in the image indicated by the actual processing target image data is detected. In the present embodiment, as shown in FIG. 7 as an example, the movement direction of the person when entering the examination room 62 in the determination area A1 is a direction from left to right (hereinafter referred to as “room entry direction”). Since the direction of movement of the person when leaving the examination room 62 is the direction from right to left (hereinafter referred to as “leaving direction”), one of the entering direction and the leaving direction is detected here. Will be.

なお、本実施の形態では、当該変化方向として、実処理対象画像データが複数ある場合には、各実処理対象画像データによって示される画像変化領域の時系列順の変化方向を検出する。また、実処理対象画像データが1つのみである場合には、当該実処理対象画像データによって示される画像変化領域の判定エリアA1における位置が左端寄りであるときは入室方向であるものとし、同様に右端寄りであるときには退室方向であるものとする。   In the present embodiment, when there are a plurality of actual process target image data, the change direction in the time series order of the image change area indicated by each actual process target image data is detected as the change direction. In addition, when there is only one actual processing target image data, when the position in the determination area A1 of the image change area indicated by the actual processing target image data is closer to the left end, it is assumed that the direction is the entrance direction. When it is closer to the right end, it is assumed that the direction is to leave the room.

次のステップ126では、検出した変化方向が入室方向であるか否かを各実処理対象画像データ毎に判定し、肯定判定となった実処理対象画像データに対してはステップ128において入室時の撮影画像であることを示す属性を付与し、否定判定となった実処理対象画像データに対してはステップ130において退室時の撮影画像であることを示す属性を付与した後にステップ132に移行する。   In the next step 126, it is determined for each actual process target image data whether or not the detected change direction is the entrance direction. An attribute indicating that the image is a captured image is assigned, and an attribute indicating that the image is a captured image at the time of leaving the room is assigned to the actual processing target image data that is negatively determined, and then the process proceeds to step 132.

ステップ132では、以上の処理によって得られた実処理対象画像データに関する情報(以下、「計測情報」という。)をハードディスク28の所定領域に記憶する。なお、ここで、実処理対象画像データが複数ある場合には、画像変化領域の占める割合が一番大きな実処理対象画像データに関する情報のみ記憶する。   In step 132, information (hereinafter referred to as “measurement information”) regarding the actual processing target image data obtained by the above processing is stored in a predetermined area of the hard disk 28. Here, when there are a plurality of pieces of actual processing target image data, only information related to the actual processing target image data having the largest proportion of the image change area is stored.

次のステップ134では、予め定められた計測期間(本実施の形態では、午前9時から午後4時30分までの期間)が終了したか否かを判定し、否定判定となった場合は上記ステップ100に戻り、肯定判定となった時点で本施設利用者計測処理プログラムを終了する。   In the next step 134, it is determined whether or not a predetermined measurement period (in this embodiment, the period from 9 am to 4:30 pm) has ended. Returning to Step 100, the facility user measurement processing program is terminated when an affirmative determination is made.

図8には、本施設利用者計測処理プログラムによってハードディスク28に記憶された計測情報の一例が示されている。同図に示すように、本実施の形態に係る施設利用者計測システム10では、上記計測情報として、ハードディスク28に記憶された全てのデジタル画像データについてハードディスク28に記憶された時系列順に付与されたイベント番号と、画像ファイル名と、撮影日時(ここでは、画像ファイルに付与されたタイム・スタンプ)と、上記ステップ128又はステップ130で付与された入室又は退室の別を示す入・退室属性と、上記ステップ120又はステップ122で付与された従業員又は非従業員の別を示す従業員属性と、の各情報が、実処理対象画像データ毎にハードディスク28に記憶される。なお、同図における‘IN’は入室を、‘OUT’は退室を、各々示す。また、同図における‘P’は非従業員(患者)を、‘S’は従業員を、各々示す。以下では、計測情報が図8に示すものである場合について説明する。   FIG. 8 shows an example of measurement information stored in the hard disk 28 by the facility user measurement processing program. As shown in the figure, in the facility user measurement system 10 according to the present embodiment, all the digital image data stored in the hard disk 28 is given as the measurement information in the order of time series stored in the hard disk 28. An event number, an image file name, a shooting date and time (here, a time stamp given to the image file), an entry / exit attribute indicating whether the entry or exit is given in step 128 or 130, and Each information of the employee attribute indicating whether the employee or the non-employee is given in step 120 or 122 is stored in the hard disk 28 for each actual processing target image data. In the figure, “IN” indicates entry and “OUT” indicates exit. In the figure, 'P' indicates a non-employee (patient) and 'S' indicates an employee. Below, the case where measurement information is what is shown in FIG. 8 is demonstrated.

次に、図9を参照して、施設利用者計測装置20において上記施設利用者計測処理の実行終了後に実行される個別識別処理について説明する。なお、図9は、当該個別識別処理の実行時に施設利用者計測装置20のCPU22によって実行される個別識別処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。   Next, with reference to FIG. 9, the individual identification process performed after completion | finish of execution of the said facility user measurement process in the facility user measurement apparatus 20 is demonstrated. FIG. 9 is a flowchart showing the flow of processing of the individual identification processing program executed by the CPU 22 of the facility user measuring device 20 when the individual identification processing is executed. The program is also stored in a predetermined area of the ROM 26 in advance. ing.

まず、ステップ200では、上記施設利用者計測処理によって記憶された計測情報(図8も参照。)をハードディスク28から読み出し、当該計測情報に記録された画像ファイル名に対応する実処理対象画像データを、写っている人の種類(ここでは、患者と従業員)別で、かつ入・退室別に、当該計測情報に含まれる属性情報に基づいて分類し、当該分類結果を示す情報(以下、「分類情報」という。)をハードディスク28の所定領域に記憶する。   First, in step 200, the measurement information (see also FIG. 8) stored by the facility user measurement process is read from the hard disk 28, and the actual processing target image data corresponding to the image file name recorded in the measurement information is read. Classification based on the attribute information included in the measurement information for each type of person (here, patient and employee) and entry / exit, and information indicating the classification result (hereinafter “Classification”) Information ”) is stored in a predetermined area of the hard disk 28.

図10には、本ステップ200の処理によって得られた分類情報の一例が示されている。同図に示すように、本実施の形態に係る施設利用者計測システム10では、上記分類情報として、計測情報に記録された画像ファイル名が、写っている人の種類別で、かつ入・退室別の4つの分類領域毎に分類されてハードディスク28に記憶される。なお、同図に示すように、このとき各分類領域内では、撮影日時の時系列順に画像ファイル名が並ぶように記憶する。以下では、分類情報が図10に示すものである場合について説明する。また、以下では、患者が写っており、かつ入室時の実処理対象画像データの分類領域を「入室画像データ領域」といい、患者が写っており、かつ退室時の実処理対象画像データの分類領域を「退室画像データ領域」という。   FIG. 10 shows an example of the classification information obtained by the processing of step 200. As shown in the figure, in the facility user measurement system 10 according to the present embodiment, as the classification information, the image file name recorded in the measurement information is classified according to the type of the person being photographed, and enters / exits the room. The data is classified into four different classification areas and stored in the hard disk 28. As shown in the figure, at this time, the image file names are stored in each classification area so that the image file names are arranged in chronological order of the shooting date and time. Below, the case where classification information is what is shown in FIG. 10 is demonstrated. In the following, the classification area of the actual processing target image data at the time of entering the room is called “entry image data area”, and the classification of the actual processing target image data at the time of leaving the patient is shown. The area is referred to as “exit image data area”.

次のステップ202では、入室画像データ領域における、以降の処理を行っていない、最も撮影日時の新しい画像ファイル名を分類情報から読み出し、当該画像ファイルのデジタル画像データ(以下、「処理対象入室画像データ」という。)をハードディスク28から読み出す。   In the next step 202, the image file name with the latest shooting date and time in the room image data area that has not been subjected to subsequent processing is read from the classification information, and the digital image data of the image file (hereinafter referred to as “process target room image data”). Is read from the hard disk 28.

次のステップ204では、処理対象入室画像データにより示される画像の輝度補正エリアA2における輝度レベルがハードディスク28に予め記憶されている輝度補正画像情報により示される画像の輝度レベルに応じたレベルとなるように当該処理対象入室画像データを調整する。なお、当該調整は、当該処理対象入室画像データを圧縮形式に応じた形式で伸張した後に行う。   In the next step 204, the luminance level in the luminance correction area A2 of the image indicated by the processing target entry image data is set to a level corresponding to the luminance level of the image indicated by the luminance correction image information stored in the hard disk 28 in advance. The processing target entry image data is adjusted. The adjustment is performed after the processing target entry image data is expanded in a format corresponding to the compression format.

本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。   In the present embodiment, the luminance level is adjusted as follows as an example.

まず、輝度補正画像情報の各画素データのR、G、B毎の平均値MR、MG、MBを算出すると共に、処理対象入室画像データの輝度補正エリアA2における各画素データのR、G、B毎の平均値NR、NG、NBを算出する。   First, the average values MR, MG, and MB for each pixel data of the luminance correction image information for each of R, G, and B are calculated, and the R, G, and B of each pixel data in the luminance correction area A2 of the processing target room entrance image data are calculated. Average values NR, NG, and NB are calculated for each.

次に、平均値MRに対する平均値NRの割合を示す係数DR(=MR/NR)と、平均値MGに対する平均値NGの割合を示す係数DG(=MG/NG)と、平均値MBに対する平均値NBの割合を示す係数DB(=MB/NB)と、を算出する。   Next, a coefficient DR (= MR / NR) indicating the ratio of the average value NR to the average value MR, a coefficient DG (= MG / NG) indicating the ratio of the average value NG to the average value MG, and an average for the average value MB A coefficient DB (= MB / NB) indicating the ratio of the value NB is calculated.

最後に、処理対象入室画像データにおけるRの各画素データに対して係数DRを、Gの各画素データに対して係数DGを、Bの各画素データに対して係数DBを、各々乗算する。   Finally, the coefficient DR is multiplied for each R pixel data in the processing target room entrance image data, the coefficient DG is multiplied for each G pixel data, and the coefficient DB is multiplied for each B pixel data.

なお、処理対象入室画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象入室画像データの輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。   Note that the method for adjusting the luminance level of the processing target entry image data is not limited to the above method. For example, when the digital image data obtained by the camera 50 has a format indicated by a luminance signal and a color difference signal, the luminance signal is applied instead of the R, G, and B values to be processed. The brightness level of the entrance image data can be adjusted. Further, for example, the coefficient is not calculated for all of R, G, and B as described above, but the coefficient is calculated for only one color component of R, G, and B, and the coefficient is calculated for all the color components. It can also be applied to the adjustment of the luminance level.

次のステップ206では、輝度レベルの補正後の処理対象入室画像データから予め定められた特徴データを抽出する。なお、本実施の形態に係る施設利用者計測システム10では、当該特徴データを次のように抽出する。   In the next step 206, predetermined feature data is extracted from the processing target entry image data after the luminance level correction. In the facility user measurement system 10 according to the present embodiment, the feature data is extracted as follows.

まず、処理対象入室画像データにより示される画像に対する、上記施設利用者計測処理プログラムのステップ108の処理においてハードディスク28に記憶しておいた画像変化領域を示す情報を読み出す。   First, information indicating the image change area stored in the hard disk 28 in the processing of step 108 of the facility user measurement processing program for the image indicated by the processing target entry image data is read.

次に、読み出した情報により示される画像変化領域が人を示す領域であるものと仮定し、図11に示すように、当該領域を頭部の領域と、上半身の領域と、下半身の領域と、に分割する。なお、ここでは、当該分割を、標準的な人における頭部、上半身、下半身の各領域の比率に応じて分割するものとしているが、これに限らず、例えば、頭部、上半身、下半身の各領域の形状に応じて分割するものとしてもよい。   Next, assuming that the image change area indicated by the read information is an area indicating a person, as shown in FIG. 11, the area includes a head area, an upper body area, a lower body area, Divide into Note that here, the division is performed according to the ratio of each area of the head, upper body, and lower body in a standard person, but is not limited thereto, for example, each of the head, upper body, and lower body It is good also as what divides | segments according to the shape of an area | region.

次に、上半身及び下半身の各領域毎に、処理対象入室画像データにおける各色成分毎の輝度値のヒストグラムを上記特徴データとして導出する。   Next, for each region of the upper body and the lower body, a histogram of luminance values for each color component in the processing target entry image data is derived as the feature data.

なお、当該導出方法に限らず、例えば、上半身及び下半身の各領域毎で、かつ各色成分毎の輝度値の平均値を上記特徴データとして導出してもよい。   Note that the present invention is not limited to this derivation method, and for example, an average value of luminance values for each region of the upper body and lower body and for each color component may be derived as the feature data.

次のステップ208では、退室画像データ領域における、以降の処理を行っていない、最も撮影日時の新しい画像ファイル名を分類情報(図10も参照。)から読み出し、当該画像ファイルのデジタル画像データ(以下、「処理対象退室画像データ」という。)をハードディスク28から読み出す。   In the next step 208, the latest image file name with the latest shooting date and time in the leaving image data area that has not been subjected to the subsequent processing is read from the classification information (see also FIG. 10), and the digital image data (hereinafter referred to as the image file) of the image file is read. , “Processing target leaving image data”) is read from the hard disk 28.

次のステップ210では、処理対象退室画像データにより示される画像の輝度補正エリアA2における輝度レベルがハードディスク28に予め記憶されている輝度補正画像情報により示される画像の輝度レベルに応じたレベルとなるように当該処理対象退室画像データを調整する。なお、当該調整は、当該処理対象退室画像データを圧縮形式に応じた形式で伸張した後に行う。   In the next step 210, the brightness level in the brightness correction area A2 of the image indicated by the processing target leaving image data becomes a level corresponding to the brightness level of the image indicated by the brightness correction image information stored in the hard disk 28 in advance. The processing target leaving image data is adjusted. The adjustment is performed after the processing target leaving image data is expanded in a format corresponding to the compression format.

本実施の形態では、当該輝度レベルの調整を、一例として次のように行う。   In the present embodiment, the luminance level is adjusted as follows as an example.

まず、輝度補正画像情報の各画素データのR、G、B毎の平均値MR、MG、MBを算出すると共に、処理対象退室画像データの輝度補正エリアA2における各画素データのR、G、B毎の平均値OR、OG、OBを算出する。   First, average values MR, MG, MB for each R, G, B of each pixel data of the brightness correction image information are calculated, and R, G, B of each pixel data in the brightness correction area A2 of the processing target leaving image data. Average values OR, OG, and OB are calculated for each.

次に、平均値MRに対する平均値ORの割合を示す係数ER(=MR/OR)と、平均値MGに対する平均値OGの割合を示す係数EG(=MG/OG)と、平均値MBに対する平均値OBの割合を示す係数EB(=MB/OB)と、を算出する。   Next, a coefficient ER (= MR / OR) indicating a ratio of the average value OR to the average value MR, a coefficient EG (= MG / OG) indicating a ratio of the average value OG to the average value MG, and an average with respect to the average value MB A coefficient EB (= MB / OB) indicating the ratio of the value OB is calculated.

最後に、処理対象退室画像データにおけるRの各画素データに対して係数ERを、Gの各画素データに対して係数EGを、Bの各画素データに対して係数EBを、各々乗算する。   Finally, the coefficient ER is multiplied by the R pixel data in the processing target leaving image data, the coefficient EG is multiplied by the G pixel data, and the coefficient EB is multiplied by the B pixel data.

なお、処理対象退室画像データの輝度レベルの調整方法は、以上の方法に限るものではない。例えば、カメラ50によって得られるデジタル画像データが輝度信号と色差信号により示される形式となっている場合には、上記R、G、Bの各値に代えて当該輝度信号を適用することにより処理対象退室画像データの輝度レベルの調整を行うことができる。また、例えば、上記のようにR、G、Bの全てについて係数を算出するのではなく、R、G、Bの何れか1つの色成分のみについて係数を算出し、当該係数を全ての色成分の輝度レベルの調整に適用することもできる。   Note that the method of adjusting the luminance level of the processing target leaving image data is not limited to the above method. For example, when the digital image data obtained by the camera 50 has a format indicated by a luminance signal and a color difference signal, the luminance signal is applied instead of the R, G, and B values to be processed. The brightness level of the leaving image data can be adjusted. Further, for example, the coefficient is not calculated for all of R, G, and B as described above, but the coefficient is calculated for only one color component of R, G, and B, and the coefficient is calculated for all the color components. It can also be applied to the adjustment of the luminance level.

次のステップ212では、輝度レベルの補正後の処理対象退室画像データから予め定められた特徴データを抽出する。なお、本実施の形態に係る施設利用者計測システム10では、当該特徴データを次のように抽出する。   In the next step 212, predetermined feature data is extracted from the processing target leaving image data after correcting the luminance level. In the facility user measurement system 10 according to the present embodiment, the feature data is extracted as follows.

まず、処理対象退室画像データにより示される画像に対する、上記施設利用者計測処理プログラムのステップ108の処理においてハードディスク28に記憶しておいた画像変化領域を示す情報を読み出す。   First, information indicating the image change area stored in the hard disk 28 in the processing of step 108 of the facility user measurement processing program for the image indicated by the processing target leaving image data is read.

次に、読み出した情報により示される画像変化領域が人を示す領域であるものと仮定し、図11に示すように、当該領域を頭部の領域と、上半身の領域と、下半身の領域と、に分割する。なお、ここでは、当該分割を、標準的な人における頭部、上半身、下半身の各領域の比率に応じて分割するものとしているが、これに限らず、例えば、頭部、上半身、下半身の各領域の形状に応じて分割するものとしてもよい。   Next, assuming that the image change area indicated by the read information is an area indicating a person, as shown in FIG. 11, the area includes a head area, an upper body area, a lower body area, Divide into Note that here, the division is performed according to the ratio of each area of the head, upper body, and lower body in a standard person, but is not limited thereto, for example, each of the head, upper body, and lower body It is good also as what divides | segments according to the shape of an area | region.

次に、上半身及び下半身の各領域毎に、処理対象退室画像データにおける各色成分毎の輝度値のヒストグラムを上記特徴データとして導出する。   Next, for each region of the upper body and the lower body, a histogram of luminance values for each color component in the processing target leaving image data is derived as the feature data.

なお、当該導出方法に限らず、例えば、上半身及び下半身の各領域毎で、かつ各色成分毎の輝度値の平均値を上記特徴データとして導出してもよい。   Note that the present invention is not limited to this derivation method, and for example, an average value of luminance values for each region of the upper body and lower body and for each color component may be derived as the feature data.

次のステップ214では、上記ステップ206において抽出した上半身の特徴データと上記ステップ212において抽出した上半身の特徴データとの間の一致度JCと、上記ステップ206において抽出した下半身の特徴データと上記ステップ212において抽出した下半身の特徴データとの間の一致度KCと、を算出する。   In the next step 214, the degree of coincidence JC between the upper body feature data extracted in step 206 and the upper body feature data extracted in step 212, the lower body feature data extracted in step 206, and the above step 212. The degree of coincidence KC with the feature data of the lower body extracted in step S is calculated.

なお、図11に示すように、本実施の形態に係る施設利用者計測システム10では、上記一致度JCとして、上記ステップ206において上半身の特徴データとして導出したヒストグラムにおける所定閾値以上となる輝度領域範囲と、上記ステップ212において上半身の特徴データとして導出したヒストグラムにおける上記所定閾値以上となる輝度領域範囲と、の各色成分毎の重なり量の積算値を導出する。   As shown in FIG. 11, in the facility user measurement system 10 according to the present embodiment, the luminance region range that is equal to or greater than a predetermined threshold in the histogram derived as the upper body feature data in step 206 as the degree of coincidence JC. And an integrated value of the overlap amount for each color component of the luminance region range that is equal to or greater than the predetermined threshold in the histogram derived as upper body feature data in step 212 is derived.

また、施設利用者計測システム10では、上記一致度KCとして、上記ステップ206において下半身の特徴データとして導出したヒストグラムにおける所定閾値以上となる輝度領域範囲と、上記ステップ212において下半身の特徴データとして導出したヒストグラムにおける上記所定閾値以上となる輝度領域範囲と、の各色成分毎の重なり量の積算値を導出する。   Further, the facility user measurement system 10 derives the degree of coincidence KC as a luminance region range that is equal to or greater than a predetermined threshold in the histogram derived as the lower body feature data in step 206 and the lower body feature data in step 212. An integrated value of the overlap amount for each color component of the luminance region range that is equal to or greater than the predetermined threshold in the histogram is derived.

なお、一致度JCと一致度KCの算出方法は以上の方法に限らず、例えば、上半身及び下半身の各々の特徴データとして導出した各ヒストグラムの形状に対する各色成分毎のパターン・マッチングにより導出することもできる。   The method of calculating the degree of coincidence JC and the degree of coincidence KC is not limited to the above method. For example, the degree of coincidence JC and the degree of coincidence KC may be derived by pattern matching for each color component with respect to the shape of each histogram derived as feature data of the upper body and lower body. it can.

次のステップ216では、上記ステップ214において導出した一致度JC及び一致度KCの双方が所定値以上であるか否かを判定し、肯定判定となった場合は処理対象入室画像データにより示される画像に含まれる人と、処理対象退室画像データにより示される画像に含まれる人とが同一人物であるものと判断してステップ218に移行し、処理対象入室画像データと処理対象退室画像データとを対応付ける情報(以下、「対応付情報」という。)を記録した後にステップ226に移行する。なお、上記ステップ216で適用する所定値は、一致度JC及び一致度KCが当該値以上となった場合に、当該一致度に対応する2つの処理対象画像データに同一の着衣を身につけた人の画像が含まれる可能性が高いものと見なせる値として、実験により統計的に予め得られた値や、コンピュータ・シミュレーションで予め得られた値等を適用することができる。   In the next step 216, it is determined whether or not both the degree of coincidence JC and the degree of coincidence KC derived in step 214 are equal to or greater than a predetermined value. If the determination is affirmative, the image indicated by the processing target entry image data And the person included in the image indicated by the processing target leaving image data is determined to be the same person, and the process proceeds to step 218 to associate the processing target entering image data with the processing target leaving image data. After information (hereinafter referred to as “corresponding information”) is recorded, the process proceeds to step 226. The predetermined value applied in step 216 is a person who wears the same clothing on the two processing target image data corresponding to the degree of coincidence when the degree of coincidence JC and the degree of coincidence KC are equal to or higher than the values. As a value that can be considered to be highly likely to include the image, a value statistically obtained in advance by an experiment, a value obtained in advance by a computer simulation, or the like can be applied.

図12には、本実施の形態に係る対応付情報の一例が示されている。同図に示すように、ここでは、対応付ける処理対象入室画像データのイベント番号、当該処理対象入室画像データの撮影日時により示される入室時間、対応付ける処理対象退室画像データのイベント番号、当該処理対象退室画像データの撮影日時により示される退室時間、及び上記入室時間と上記退室時間の差分として求められる滞在期間の各情報が対応付情報として記録される。   FIG. 12 shows an example of association information according to the present embodiment. As shown in the figure, here, the event number of the processing target entry image data to be associated, the entry time indicated by the shooting date and time of the processing target entry image data, the event number of the processing target exit image data to be associated, the processing target exit image Each information of the exit time indicated by the shooting date and time of the data and the stay period obtained as the difference between the entrance time and the exit time is recorded as association information.

一方、上記ステップ216において否定判定となった場合はステップ220に移行し、一致度JC及び一致度KCの何れか一方のみが上記所定値以上であるか否かを判定し、肯定判定となった場合はステップ222に移行する。   On the other hand, if a negative determination is made in step 216, the process proceeds to step 220, where it is determined whether only one of the coincidence degree JC and the coincidence degree KC is equal to or greater than the predetermined value. If so, go to Step 222.

ステップ222では、次の(1)式により重み付け一致度WCを算出する。   In step 222, the weighting coincidence WC is calculated by the following equation (1).

WC=JC×WJ+KC×WK (1)
ここで、WJは上半身における一致度JCに対する重み値を、WKは下半身における一致度KCに対する重み値を、各々示すものである。
WC = JC × WJ + KC × WK (1)
Here, WJ represents a weight value for the degree of coincidence JC in the upper body, and WK represents a weight value for the degree of coincidence KC in the lower body.

診察室に入室する患者は、当該診察室内にて上半身に身につけた上着を脱いだ状態で退室することがある。この場合、一致度JCは同一人物を特定するための値としては適当ではない。これに対し、下半身における着衣を脱いだ状態で退室する患者は殆どいないため、一致度KCは一致度JCに比較して、同一人物を特定するための値として信頼性が高い。   A patient who enters the examination room may leave the room with his / her upper coat taken off in the examination room. In this case, the degree of coincidence JC is not appropriate as a value for specifying the same person. On the other hand, since there are few patients who leave the room with their clothes on the lower body, the coincidence degree KC is more reliable as a value for identifying the same person than the coincidence degree JC.

以上の点を考慮し、本実施の形態に係る施設利用者計測システム10では、重み値WKを重み値WJより大きな値とするようにしており、これによって、より高精度な一致度を導出するようにしている。なお、これに限らず、簡易に一致度WCを導出する場合等には、一致度KCのみを一致度WCとして直接適用したり、重み付けをせずに一致度JCと一致度KCの加算のみにより一致度WCを導出することもできる。   Considering the above points, in the facility user measurement system 10 according to the present embodiment, the weight value WK is set to a value larger than the weight value WJ, and thereby, a higher degree of coincidence is derived. I am doing so. However, the present invention is not limited to this. For example, when the degree of coincidence WC is simply derived, only the degree of coincidence KC is directly applied as the degree of coincidence WC, or only by adding the degree of coincidence JC and the degree of coincidence KC without weighting. The degree of coincidence WC can also be derived.

次のステップ224では、導出した重み付け一致度WCを処理対象入室画像データ及び処理対象退室画像データと関連付けた状態でハードディスク28の所定領域に記憶し、その後にステップ226に移行する。   In the next step 224, the derived weighted coincidence degree WC is stored in a predetermined area of the hard disk 28 in association with the processing target entry image data and the processing target exit image data, and then the process proceeds to step 226.

ステップ226では、処理対象入室画像データ及び処理対象退室画像データに対応する不図示の処理済みフラグを立てることにより、これらの画像データが処理済みであることを記録した後にステップ228に移行して、分類情報(図10も参照。)の入室画像データ領域に記憶されている全ての画像ファイル名のデジタル画像データについて以上の処理が終了したか否かを判定し、否定判定となった場合は上記ステップ202に戻り、肯定判定となった時点で本個別認識処理プログラムを終了する。   In Step 226, by setting a processed flag (not shown) corresponding to the processing target entry image data and the processing target leaving image data, it is recorded that these image data have been processed, and then the process proceeds to Step 228. It is determined whether or not the above processing is completed for the digital image data of all image file names stored in the entry image data area of the classification information (see also FIG. 10). Returning to step 202, when the determination is affirmative, the individual recognition processing program is terminated.

一方、上記ステップ220において否定判定となった場合はステップ230に移行し、処理対象退室画像データが分類情報の退室画像データ領域に記憶されている最も古いものであるか否かを判定し、肯定判定となった場合は上記ステップ202に戻り、否定判定となった場合にはステップ232に移行して、分類情報の退室画像データ領域に記憶されている、次に撮影日時の新しい画像ファイル名を分類情報から読み出し、当該画像ファイル名のデジタル画像データを処理対象退室画像データとしてハードディスク28から読み出し、その後に上記ステップ210に戻る。   On the other hand, if a negative determination is made in step 220, the process proceeds to step 230, in which it is determined whether or not the processing target leaving image data is the oldest stored in the leaving image data area of the classification information. When the determination is made, the process returns to step 202. When the determination is negative, the process proceeds to step 232, and a new image file name of the next shooting date and time stored in the leaving image data area of the classification information is entered. Read from the classification information, read the digital image data of the image file name from the hard disk 28 as the processing target leaving image data, and then return to step 210.

本個別認識処理プログラムにより、最も新しい処理対象入室画像データから最も古い処理対象入室画像データに向かう方向に、最も新しい処理対象退室画像データから最も古い処理対象退室画像データの順で処理対象入室画像データと処理対象退室画像データの照合を行い、当該照合によって一致度の高い画像データが検出されたときに当該画像データを対応付けると共に以後の照合対象から外すようにしている。   With this individual recognition processing program, the target entry image data is processed in the order from the newest processing target exit image data to the oldest processing target exit image data in the direction from the newest processing target entrance image data to the oldest processing target entrance image data. And the processing target leaving image data are collated, and when image data having a high degree of coincidence is detected by the collation, the image data is associated and excluded from the subsequent collation targets.

通常、診察室への最終入室者は最終退室者と一致する可能性が高いため、以上のような照合手順とすることにより、高速な処理を実現している。   Usually, the last person entering the examination room has a high possibility of matching with the person who left the room, and therefore, high-speed processing is realized by using the above collation procedure.

以上詳細に説明したように、本実施の形態では、診察室62に入る際と当該診察室62から出る際に人が通過する判定エリアA1を所定期間(本実施の形態では、0.2秒間)毎に撮影して複数のデジタル画像データを取得し、当該複数のデジタル画像データから、診察室62に入るために判定エリアA1を人が通過しているときの撮影によって取得された入室時のデジタル画像データと診察室62から出るために判定エリアA1を人が通過しているときの撮影によって取得された退室時のデジタル画像データを抽出し、入室時のデジタル画像データにより示される画像に含まれる人と退室時のデジタル画像データにより示される画像に含まれる人とを照合して同一人物が含まれる画像を示すデジタル画像データを抽出し、これらのデジタル画像データの各々の取得時間(入室時間及び退室時間)を対応付けて記憶しているので、診察室62での人の滞在期間を正確に把握することができ、この結果として、施設利用者の移動状況を高いレベルで把握することができる。   As described above in detail, in the present embodiment, the determination area A1 through which a person passes when entering the examination room 62 and exiting the examination room 62 is set for a predetermined period (in this embodiment, 0.2 seconds). ) To obtain a plurality of digital image data, and from the plurality of digital image data, when entering a room obtained by photographing when a person passes through the determination area A1 to enter the examination room 62 The digital image data and the digital image data at the time of leaving obtained by photographing when a person passes through the judgment area A1 to exit the examination room 62 are extracted and included in the image indicated by the digital image data at the time of entering the room Digital image data indicating images containing the same person is extracted by comparing the person included in the image indicated by the digital image data at the time of leaving and Since each acquisition time (entry time and leaving time) of the image data is stored in association with each other, it is possible to accurately grasp the stay period of the person in the examination room 62. As a result, the facility user The movement status can be grasped at a high level.

また、本実施の形態では、判定エリアA1を人が通過していない状態でカメラ50により取得されたデジタル画像データを背景画像情報として予め記憶しておき、カメラ50により取得された複数のデジタル画像データと上記背景画像情報との比較によって、判定エリアA1を人が通過しているときの撮影によって取得されたデジタル画像データを抽出しているので、簡易に当該デジタル画像データを抽出することができる。   In the present embodiment, digital image data acquired by the camera 50 in a state where no person passes through the determination area A1 is stored in advance as background image information, and a plurality of digital images acquired by the camera 50 is stored. By comparing the data with the background image information, the digital image data acquired by photographing when a person is passing through the determination area A1 is extracted. Therefore, the digital image data can be easily extracted. .

また、本実施の形態では、カメラ50により取得された複数のデジタル画像データによって示される画像の輝度レベルが上記背景画像情報によって示される画像の輝度レベルに応じたレベルとなるように当該複数のデジタル画像データを調整しているので、当該調整を行わない場合に比較して、より高精度に判定エリアA1を人が通過しているときの撮影によって取得されたデジタル画像データを抽出することができる。   In the present embodiment, the plurality of digital images are set such that the brightness level of the image indicated by the plurality of digital image data acquired by the camera 50 is a level corresponding to the brightness level of the image indicated by the background image information. Since the image data is adjusted, it is possible to extract digital image data acquired by photographing when a person passes through the determination area A1 with higher accuracy than in the case where the adjustment is not performed. .

また、本実施の形態では、カメラ50により取得された複数のデジタル画像データと上記背景画像情報とを比較し、当該背景画像情報との画像上の差異領域(本実施の形態では、画像変化領域)の時系列順での移動方向が診察室62に入るために判定エリアA1を人が通過するときの通過方向に略一致するデジタル画像データを入室時のデジタル画像データとして抽出し、当該移動方向が診察室62から出るために判定エリアA1を人が通過するときの通過方向に略一致するデジタル画像データを退室時のデジタル画像データとして抽出しているので、より高精度に、これらの画像データを抽出することができる。   In the present embodiment, a plurality of digital image data acquired by the camera 50 is compared with the background image information, and a difference area on the image with the background image information (in this embodiment, an image change area). ) In order of movement in time-series order to enter the examination room 62, digital image data that substantially matches the passage direction when a person passes through the determination area A1 is extracted as digital image data at the time of entry, and the movement direction Is extracted as digital image data at the time of leaving the room because the digital image data that substantially matches the passing direction when a person passes through the judgment area A1 in order to exit the examination room 62 is obtained. Can be extracted.

また、本実施の形態では、処理対象入室画像データ及び処理対象退室画像データにより示される各画像に含まれる人の画像領域を上半身領域及び下半身領域に分割し、当該上半身領域及び下半身領域の双方の一致度が所定度合より高い処理対象入室画像データ及び処理対象退室画像データを同一人物が含まれる画像を示すものとして抽出しているので、上半身領域及び下半身領域に分割せずに照合する場合に比較して、より高精度に同一人物の含まれる画像を示す画像データを抽出することができる。   Further, in the present embodiment, the human image area included in each image indicated by the processing target entry image data and the processing target exit image data is divided into an upper body area and a lower body area, and both the upper body area and the lower body area are divided. Since the processing target entry image data and processing target exit image data whose degree of coincidence is higher than a predetermined degree are extracted as indicating images containing the same person, it is compared when collating without dividing into upper body area and lower body area Thus, image data indicating an image including the same person can be extracted with higher accuracy.

また、本実施の形態では、処理対象入室画像データにより示される画像と処理対象退室画像データにより示される画像の同一画像領域(本実施の形態では、輝度補正エリアA2)における輝度レベルが等しくなるように各画像データを調整しているので、当該調整を行わない場合に比較して、より高精度に同一人物の含まれる画像を示す画像データを抽出することができる。   Further, in the present embodiment, the luminance level in the same image area (in the present embodiment, the luminance correction area A2) of the image indicated by the processing target entry image data and the image indicated by the processing target leaving image data is equal. Since each image data is adjusted, image data indicating an image including the same person can be extracted with higher accuracy than in the case where the adjustment is not performed.

また、本実施の形態では、入出状況の把握対象から除外したい人(本実施の形態では、従業員)の画像の予め定められた特徴量を示す除外特徴量情報(本実施の形態では、除外色成分)を予め記憶しておき、実処理対象画像データにより示される人の画像の上記特徴量を示す特徴量情報と除外特徴量情報とを照合して、当該人が除外したい人であるか否かを判定し、除外したい人であると判定された実処理対象画像データを処理対象から除外しているので、診察室62に対する入出状況を把握したい人(本実施の形態では、患者)のみを対象とすることができ、施設利用者計測システム10の有用性を向上させることができる。   Further, in the present embodiment, excluded feature amount information (excluded in the present embodiment) that indicates a predetermined feature amount of an image of a person (employee in the present embodiment) that is desired to be excluded from the grasp status of the entry / exit status. Color component) is stored in advance, the feature amount information indicating the feature amount of the person image indicated by the actual processing target image data is compared with the excluded feature amount information, and the person is to be excluded Since the actual processing target image data determined to be excluded is excluded from the processing target, only the person who wants to grasp the entrance / exit status of the examination room 62 (patient in the present embodiment) The utility of the facility user measurement system 10 can be improved.

更に、本実施の形態では、デジタル画像データをカラーで取得するものとしているので、人の含まれる画像を示すデジタル画像データや同一人物の含まれる画像を示すデジタル画像データの抽出の際に、カラーの色成分(R(赤)、G(緑)、B(青)や、輝度信号及び色差信号)を利用することができ、モノクロの画像情報を取得する場合に比較して、各々の抽出精度を向上させることができる。   Furthermore, in this embodiment, digital image data is acquired in color. Therefore, when digital image data indicating an image including a person or digital image data indicating an image including the same person is extracted, color image data is extracted. Color components (R (red), G (green), B (blue), luminance signal and color difference signal) can be used, and each extraction accuracy is higher than when acquiring monochrome image information. Can be improved.

〔第2の実施の形態〕
上記第1の実施の形態における施設利用者計測処理(図6参照。)では、差分値Dと所定値との比較によって診察室62への入室者及び診察室62からの退室者を検出するようにしているため、全ての入室者及び退室者を検出できるとは限らない。同様に、上記第1の実施の形態における個別認識処理(図9参照。)においても、一致度JC及び一致度KCと所定値との比較によって同一人物を検出するようにしているため、全ての同一人物を検出できるとは限らない。しかしながら、できるだけ多くの検出対象を検出することが患者の移動状況を把握する上で好ましいことは言うまでもない。
[Second Embodiment]
In the facility user measurement process (see FIG. 6) in the first embodiment, a person who enters the examination room 62 and a person who leaves the examination room 62 are detected by comparing the difference value D with a predetermined value. Therefore, it is not always possible to detect all persons entering and leaving the room. Similarly, in the individual recognition process (see FIG. 9) in the first embodiment, the same person is detected by comparing the coincidence degree JC and the coincidence degree KC with a predetermined value. It is not always possible to detect the same person. However, it goes without saying that detecting as many detection targets as possible is preferable for grasping the movement status of the patient.

そこで、本第2の実施の形態では、施設利用者計測処理及び個別認識処理により自動では検出できなかったものを、人を介在させることによって極力検出するようにした場合の形態について説明する。なお、本第2の実施の形態に係る施設利用者計測システム10の構成は上記第1の実施の形態と同様であるので、ここでの説明は省略し、以下、本第2の実施の形態に係る施設利用者計測システム10の作用を説明する。   Therefore, in the second embodiment, a description will be given of a case in which what cannot be automatically detected by the facility user measurement process and the individual recognition process is detected as much as possible by interposing a person. Since the configuration of the facility user measurement system 10 according to the second embodiment is the same as that of the first embodiment, description thereof is omitted, and hereinafter, the second embodiment. The operation of the facility user measurement system 10 according to will be described.

まず、本第2の実施の形態に係る施設利用者計測装置20において実行される施設利用者計測処理について説明する。本形態に係る施設利用者計測装置20では、図6に示した施設利用者計測処理プログラムと略同様の処理が実行されるが、同図におけるステップ108において算出された差分値Dと、ステップ112において導出された幅Wの各値が、対応するデジタル画像データに関連付けられた状態でハードディスク28の所定領域に記憶される点のみが、上記第1の実施の形態と異なっている。   First, the facility user measurement process executed in the facility user measurement device 20 according to the second embodiment will be described. In the facility user measuring device 20 according to the present embodiment, processing substantially similar to the facility user measurement processing program shown in FIG. 6 is executed, but the difference value D calculated in step 108 in the figure and step 112 The only difference from the first embodiment is that each value of the width W derived in is stored in a predetermined area of the hard disk 28 in a state associated with the corresponding digital image data.

従って、本第2の実施の形態に係る施設利用者計測処理プログラムの実行後には、全てのデジタル画像データについての差分値Dと、当該差分値Dが所定値以上であったデジタル画像データについての幅Wがハードディスク28に記憶されることになる。   Therefore, after execution of the facility user measurement processing program according to the second embodiment, the difference value D for all digital image data and the digital image data for which the difference value D is equal to or greater than a predetermined value. The width W is stored in the hard disk 28.

当該施設利用者計測処理の実行後に、本第2の実施の形態に係る施設利用者計測装置20では、計測補正処理が実行される。以下、図13を参照して、当該計測補正処理について説明する。なお、図13は、当該計測補正処理の実行時に施設利用者計測装置20のCPU22によって実行される計測補正処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。   After the facility user measurement process is executed, the facility user measurement apparatus 20 according to the second embodiment performs a measurement correction process. Hereinafter, the measurement correction process will be described with reference to FIG. FIG. 13 is a flowchart showing a processing flow of a measurement correction processing program executed by the CPU 22 of the facility user measuring apparatus 20 when the measurement correction processing is executed. The program is also stored in a predetermined area of the ROM 26 in advance. ing.

まず、ステップ300では、施設利用者計測処理によって記憶された全ての差分値D及び幅Wをハードディスク28から読み出す。   First, in step 300, all the difference values D and widths W stored by the facility user measurement process are read from the hard disk 28.

次のステップ302〜ステップ308では、差分値Dが所定値以上であるか、又は幅Wが所定値以下であるデジタル画像データを検出して当該デジタル画像データに対する不図示のフラグを立てることにより、以降の処理対象とする旨を記録する。   In the next step 302 to step 308, by detecting digital image data in which the difference value D is greater than or equal to a predetermined value or the width W is less than or equal to a predetermined value and setting a flag (not shown) for the digital image data, Record that it is a target for subsequent processing.

なお、ここで、上記所定値は図6のステップ110で適用した所定値より小さな値とすると共に、上記所定幅は図6のステップ114で適用した所定幅より大きな値とする。これによって、施設利用者計測処理では検出できなかった人の含まれた可能性の高いデジタル画像データを以降の処理対象としている。   Here, it is assumed that the predetermined value is smaller than the predetermined value applied in step 110 of FIG. 6, and the predetermined width is larger than the predetermined width applied in step 114 of FIG. As a result, digital image data having a high possibility of including a person who could not be detected by the facility user measurement process is set as a subsequent processing target.

次のステップ310では、以上の処理によってフラグの立てられたデジタル画像データに基づいて、計測補正画面をディスプレイ34に表示する。   In the next step 310, a measurement correction screen is displayed on the display 34 based on the digital image data flagged by the above processing.

図14には、ディスプレイ34に表示された計測補正画面の一例が示されている。同図に示すように、本実施の形態に係る計測補正画面では、当該画面の左側領域にステップ306の処理によってフラグが立てられたデジタル画像データの各々毎に、判定エリアA1の画像とイベント番号が、図14上下方向にスクロール可能に表示される。   FIG. 14 shows an example of the measurement correction screen displayed on the display 34. As shown in the figure, in the measurement correction screen according to the present embodiment, for each digital image data flagged by the processing in step 306 in the left area of the screen, the image and event number in the determination area A1. Is displayed so as to be scrollable in the vertical direction of FIG.

また、当該計測補正画面では、当該画面の右側領域に、施設利用者計測装置20の操作者によって指定されたデジタル画像データにより示される画像全体が表示されると共に、当該表示の下部に、人の種類(ここでは、‘不明’、‘患者’、‘付き添い’、‘従業員’の4種類)の指定を入力するための領域と、診察室62への入室を指定する際に指定される「IN」ボタンと、診察室62からの退室を指定する際に指定される「OUT」ボタンと、本計測補正処理プログラムの終了を指定する際に指定される「終了」ボタンと、が各々表示される。   In the measurement correction screen, the entire image indicated by the digital image data designated by the operator of the facility user measurement device 20 is displayed in the right region of the screen, and the human image is displayed at the bottom of the display. An area for inputting designation of types (here, “unknown”, “patient”, “accompaniment”, and “employee”) and an entry to the examination room 62 are designated. An “IN” button, an “OUT” button designated when designating exit from the examination room 62, and an “end” button designated when designating the end of the measurement correction processing program are displayed. The

当該計測補正画面がディスプレイ34に表示されると操作者は、表示されている判定エリアA1の画像を参照して、当該画像に診察室62に入室する人や診察室62から退室する人が含まれている場合には当該画像か、又は当該画像に対応するイベント番号の表示領域をマウス32によりポインティング指定する。これに応じてディスプレイ34の右側領域には、指定された画像の全体像が表示される。なお、図14では、イベント番号12の画像が指定された場合の表示状態が示されている。   When the measurement correction screen is displayed on the display 34, the operator refers to the displayed image of the determination area A1 and includes the person who enters the examination room 62 and the person who leaves the examination room 62 in the image. If it is, the mouse 32 designates the display area of the image or the event number corresponding to the image. In response to this, the entire image of the designated image is displayed in the right area of the display 34. FIG. 14 shows the display state when the image of event number 12 is designated.

次に操作者は、指定した画像に含まれている人の種類を示す表示位置をマウス32によりポインティング指定すると共に、当該人が診察室62へ入室しようとしている場合には「IN」ボタンを、診察室62から退室しようとしている場合には「OUT」ボタンを、マウス32によりポインティング指定する。   Next, the operator designates the display position indicating the type of person included in the designated image with the mouse 32, and when the person is going to enter the examination room 62, the operator presses the “IN” button. When the user wants to leave the examination room 62, the “OUT” button is designated by pointing with the mouse 32.

なお、操作者は、ディスプレイ34の左側領域に表示された判定エリアA1の画像及びイベント番号を、必要に応じて、キーボード30の矢印キーやマウス32による操作によりスクロールさせる。また、操作者は、本計測補正処理プログラムを終了させる場合に「終了」ボタンをマウス32によりポインティング指定する。なお、上記スクロールのための処理は、CPU22により割り込み処理として実行される。   The operator scrolls the image of the determination area A1 and the event number displayed in the left area of the display 34 by an operation with the arrow keys of the keyboard 30 or the mouse 32 as necessary. Further, the operator designates pointing with an “end” button with the mouse 32 when the measurement correction processing program is ended. The process for scrolling is executed by the CPU 22 as an interrupt process.

そこで、次のステップ312では、操作者による以上のような各種指定入力や操作が行われるまで待機し、次のステップ314では、操作者によって指定された画像に対する人の種類の指定入力又は入・退室の指定入力が行われたか否かを判定し、肯定判定となった場合はステップ316に移行して、操作者によって指定された情報を、上記施設利用者計測処理によってハードディスク28に記憶された計測情報(図8も参照。)に追加記憶した後に上記ステップ312に戻り、否定判定となった場合にはステップ318に移行する。   Therefore, in the next step 312, the process waits until various designation inputs and operations as described above are performed by the operator, and in the next step 314, designation input or input / output of the type of person for the image designated by the operator is performed. It is determined whether or not the designated entry for leaving the room has been performed. If the determination is affirmative, the process proceeds to step 316, and the information designated by the operator is stored in the hard disk 28 by the facility user measurement process. After additional storage in the measurement information (see also FIG. 8), the process returns to step 312, and if a negative determination is made, the process proceeds to step 318.

ステップ318では、操作者によって本計測補正処理プログラムの終了が指定されたか否かを判定し、否定判定となった場合は上記ステップ312に戻り、肯定判定となった場合には本計測補正処理プログラムを終了する。   In step 318, it is determined whether or not the operator has designated the end of the main measurement correction processing program. If the determination is negative, the process returns to step 312. If the determination is positive, the main measurement correction processing program is determined. Exit.

本計測補正処理プログラムにより、上記施設利用者計測処理プログラムでは検出できなかった入室者及び退室者の含まれるデジタル画像データを、相当数検出することができるようになる。   With this measurement correction processing program, it is possible to detect a considerable number of digital image data including people entering and leaving the room that could not be detected by the facility user measurement processing program.

当該計測補正処理の実行後に、本第2の実施の形態に係る施設利用者計測装置20では、上記第1の実施の形態と同様の個別認識処理(図9参照。)が実行され、その後に、個別認識補正処理が実行される。以下、図15を参照して、当該個別認識補正処理について説明する。なお、図15は、当該個別認識補正処理の実行時に施設利用者計測装置20のCPU22によって実行される個別認識補正処理プログラムの処理の流れを示すフローチャートであり、該プログラムもROM26の所定領域に予め記憶されている。   After the execution of the measurement correction process, the facility user measurement apparatus 20 according to the second embodiment executes an individual recognition process (see FIG. 9) similar to the first embodiment, and thereafter. Individual recognition correction processing is executed. Hereinafter, the individual recognition correction process will be described with reference to FIG. FIG. 15 is a flowchart showing the flow of the individual recognition correction processing program executed by the CPU 22 of the facility user measuring apparatus 20 when the individual recognition correction processing is executed. The program is also stored in a predetermined area of the ROM 26 in advance. It is remembered.

まず、ステップ400では、個別認識処理によって記憶された全ての重み付け一致度WCをハードディスク28から読み出す。   First, in step 400, all weighted coincidences WC stored by the individual recognition process are read from the hard disk 28.

次のステップ402〜ステップ406では、一致度WCが所定値以上であるデジタル画像データを検出して当該デジタル画像データに対する不図示のフラグを立てることにより、以降の処理対象とする旨を記録する。   In the next step 402 to step 406, digital image data having a matching degree WC equal to or higher than a predetermined value is detected, and a flag (not shown) for the digital image data is set to record that it is to be processed later.

次のステップ408では、以上の処理によってフラグの立てられたデジタル画像データに基づいて、個別認識補正画面をディスプレイ34に表示する。   In the next step 408, an individual recognition correction screen is displayed on the display 34 based on the digital image data flagged by the above processing.

図16には、ディスプレイ34に表示された個別認識補正画面の一例が示されている。同図に示すように、本実施の形態に係る個別認識補正画面では、当該画面の左側領域に、ステップ404の処理によってフラグが立てられたデジタル画像データのうちの入・退室属性として入室する属性が付与された画像が図16上下方向にスクロール可能に表示される。   FIG. 16 shows an example of the individual recognition correction screen displayed on the display 34. As shown in the figure, in the individual recognition correction screen according to the present embodiment, the attribute that enters the left area of the screen as the entry / exit attributes of the digital image data flagged by the processing in step 404. 16 is displayed so as to be scrollable in the vertical direction in FIG.

また、当該個別認識補正画面では、当該画面の中央領域に、ステップ404の処理によってフラグが立てられたデジタル画像データのうちの入・退室属性として退室する属性が付与された画像が図16上下方向にスクロール可能に表示される。   Further, in the individual recognition correction screen, an image in which the attribute of leaving the room as the entry / exit attribute of the digital image data flagged by the processing of step 404 is added to the center area of the screen in FIG. Is scrollable.

更に、当該個別認識補正画面では、当該画面の右側領域に、指定したデジタル画像データを対応付ける際に指定される「対応付け」ボタンと、本個別認識補正処理プログラムの終了を指定する際に指定される「終了」ボタンと、が各々表示される。   Further, in the individual recognition correction screen, the “association” button specified when the specified digital image data is associated with the right area of the screen and the end of the individual recognition correction processing program are specified. And an “END” button.

当該個別認識補正画面がディスプレイ34に表示されると操作者は、左側領域に表示されている画像群(入室時の画像)と、中央領域に表示されている画像群(退室時の画像)とを参照し、同一人物が含まれた2つの画像をマウス32によりポインティング指定する。なお、図16では、入室時の画像として上側の画像が、退室時の画像として中央の画像が、各々指定された場合の表示状態が示されている。   When the individual recognition correction screen is displayed on the display 34, the operator includes an image group displayed in the left area (image when entering the room) and an image group displayed in the central area (image when leaving the room). , Two images including the same person are designated by pointing with the mouse 32. FIG. 16 shows the display state when the upper image is designated as the image when entering the room and the center image is designated as the image when leaving the room.

そして、操作者は、指定した2つの画像を示す各デジタル画像データを対応付ける際には「対応付け」ボタンをマウス32によりポインティング指定する。   Then, the operator designates the “association” button by pointing with the mouse 32 when associating each digital image data indicating the designated two images.

なお、操作者は、必要に応じて、表示画像をキーボード30の矢印キーやマウス32による操作によってスクロールさせる。また、操作者は、本個別認識補正処理プログラムを終了させる場合に「終了」ボタンをマウス32によりポインティング指定する。なお、上記スクロールのための処理は、CPU22によって割り込み処理として実行される。   Note that the operator scrolls the display image by an operation with an arrow key of the keyboard 30 or the mouse 32 as necessary. In addition, the operator designates pointing with the “end” button with the mouse 32 when the individual recognition correction processing program is ended. The process for scrolling is executed by the CPU 22 as an interrupt process.

そこで、次のステップ410では、操作者による「対応付け」ボタン又は「終了」ボタンの指定待ちを行い、次のステップ412では、「対応付け」ボタンが指定されたか否かを判定し、肯定判定となった場合はステップ414に移行して、操作者によって指定された2つの画像を示す各デジタル画像データを対応付ける情報を、上記個別認識処理によってハードディスク28に記憶された対応付情報(図12も参照。)に追加記憶した後に上記ステップ410に戻り、否定判定となった場合にはステップ416に移行する。   Therefore, in the next step 410, the operator waits for the designation of the “association” button or the “end” button, and in the next step 412, it is determined whether or not the “association” button has been designated. If YES in step 414, the flow advances to step 414, and the information for associating the digital image data indicating the two images designated by the operator with the association information stored in the hard disk 28 by the individual recognition process (also in FIG. 12). After the additional storage, the process returns to step 410, and if a negative determination is made, the process proceeds to step 416.

ステップ416では、操作者によって「終了」ボタンが指定されたか否かを判定し、否定判定となった場合は上記ステップ410に戻り、肯定判定となった場合には本個別認識補正処理プログラムを終了する。   In step 416, it is determined whether or not an “end” button has been designated by the operator. If a negative determination is made, the process returns to step 410. If an affirmative determination is made, the individual recognition correction processing program is ended. To do.

本個別認識補正処理プログラムにより、上記個別認識処理プログラムでは検出できなかった同一人物の含まれたデジタル画像データを、相当数検出することができるようになる。   The individual recognition correction processing program can detect a considerable number of digital image data including the same person that could not be detected by the individual recognition processing program.

以上詳細に説明したように、本実施の形態では、上記第1の実施の形態と同様の効果を奏することができることに加え、施設利用者計測処理及び個別認識処理により抽出されなかったデジタル画像データにより示される画像をディスプレイ34により表示し、当該表示した画像において、診察室62に入るために判定エリアA1を人が通過しているときの画像を指定する第1指定、診察室62から出るために判定エリアA1を人が通過しているときの画像を指定する第2指定、及び同一人物が含まれる画像を指定する第3指定、の各指定を入力することができるので、施設利用者計測処理及び個別認識処理による抽出漏れを補うことができる。   As described above in detail, in the present embodiment, in addition to being able to achieve the same effects as in the first embodiment, digital image data not extracted by the facility user measurement process and the individual recognition process In order to exit the examination room 62, the first designation that designates an image when a person is passing through the determination area A1 to enter the examination room 62 in the displayed image is displayed on the display 34. It is possible to input each designation of a second designation for designating an image when a person passes through the determination area A1 and a third designation for designating an image including the same person. Extraction omission due to processing and individual recognition processing can be compensated.

なお、上記各実施の形態では、本発明の「通過領域」が単一の領域(判定エリアA1)である場合について説明したが、本発明はこれに限定されるものではなく、例えば、診察室62に入室用のドア及び退室用のドアが各々個別に設けられている場合に、これらのドアに対する人の各通過領域を本発明の「通過領域」として適用する形態とすることもできる。また、診察室62に入室用のドア及び退室用のドアの少なくとも一方が複数設けられている場合に、これらのドアに対する人の各通過領域を本発明の「通過領域」として適用する形態とすることもできる。   In each of the above embodiments, the case where the “passing region” of the present invention is a single region (determination area A1) has been described, but the present invention is not limited to this, and for example, an examination room In the case where the entrance door and the exit door are individually provided in 62, it is also possible to adopt a form in which each passing area of a person with respect to these doors is applied as the “passing area” of the present invention. Further, when at least one of the entrance door and the exit door is provided in the examination room 62, each passing area of the person with respect to these doors is applied as the “passing area” of the present invention. You can also.

これらの場合、全ての通過領域を1台のカメラで撮影するようにすることが、施設利用者計測システムの構築のためのコストの面で有利であるが、これに限らず、各通過領域が比較的離間して存在する場合や、異なる壁面に存在する場合等、1台のカメラで撮影することができない場合には、複数台のカメラにより撮影する形態とすることもできる。これらの場合、各通過領域を本実施の形態と同様の判定エリアとして予め設定しておき、施設利用者計測処理プログラム(図6参照。)において、各判定エリアに対して判定エリアA1に行っていた処理を行うようにする。この場合も、本実施の形態と同様の効果を奏することができる。   In these cases, it is advantageous in terms of the cost for constructing the facility user measurement system that all the passing areas are photographed by one camera, but the present invention is not limited to this. When it is impossible to photograph with one camera, such as when they are relatively separated from each other or when they are on different wall surfaces, it is possible to adopt a form in which photographing is performed with a plurality of cameras. In these cases, each passing area is set in advance as a determination area similar to the present embodiment, and in the facility user measurement processing program (see FIG. 6), the determination area A1 is performed for each determination area. Process. Also in this case, the same effects as in the present embodiment can be obtained.

また、上記各実施の形態では、判定エリアA1として診察室62の入退室口66が含まれた領域を適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、入退室口66近傍で入退室口66が含まれず、かつ診察室62に対して入退室する際に患者が通過する領域を判定エリアA1とする形態とすることもできる。この場合も、本実施の形態と同様の効果を奏することができる。   In each of the above embodiments, the case where the area including the entrance / exit entrance 66 of the examination room 62 is applied as the determination area A1 has been described. However, the present invention is not limited to this. An area where the entrance / exit port 66 is not included in the vicinity of the exit port 66 and the patient passes when entering / exiting the examination room 62 may be used as the determination area A1. Also in this case, the same effects as in the present embodiment can be obtained.

また、上記各実施の形態では、個別認識処理(図9参照。)において、処理対象入室画像データと処理対象退室画像データにおける各色成分の分布状態の一致度に基づいて同一人物であるか否かの判定を行う場合について説明したが、本発明はこれに限定されるものではなく、例えば、処理対象入室画像データと処理対象退室画像データにより示される各画像に含まれる人の着衣の柄の一致度に基づいて判定を行う形態や、当該人の身長の一致度に基づいて判定を行う形態等とすることもできる。なお、上記着衣の柄の一致度を適用する場合には、デジタル画像データを必ずしもカラーで取得する必要はなく、モノクロで取得する形態とすることもできる。この場合、カメラ50を低価格のものとすることができると共に、デジタル画像データの記憶に要する記憶容量を低容量化することができる。   In each of the above embodiments, in the individual recognition process (see FIG. 9), whether or not they are the same person based on the degree of coincidence of the distribution states of the respective color components in the processing target entry image data and the processing target exit image data. However, the present invention is not limited to this. For example, the pattern of the person's clothes included in each image indicated by the processing target entry image data and the processing target exit image data matches. It is also possible to adopt a form in which the determination is made based on the degree or a form in which the determination is made based on the matching degree of the person's height. In addition, when applying the pattern matching degree of the clothes, the digital image data does not necessarily have to be acquired in color, and can be acquired in monochrome. In this case, the camera 50 can be made inexpensive, and the storage capacity required for storing digital image data can be reduced.

また、上記各実施の形態で示した施設利用者計測システム10(図1〜図3参照。)の構成は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Moreover, it is needless to say that the configuration of the facility user measurement system 10 (see FIGS. 1 to 3) shown in each of the above embodiments is an example, and can be appropriately changed without departing from the gist of the present invention. Yes.

例えば、上記各実施の形態では、カメラ50として、予め設定された期間毎にカラー静止画像を撮影するデジタル電子スチルカメラを適用したが、カラー動画像を撮影するデジタルカメラを適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   For example, in each of the above embodiments, a digital electronic still camera that captures a color still image for each preset period is applied as the camera 50. However, a digital camera that captures a color moving image is applied. You can also. Also in this case, the same effects as those of the above embodiments can be obtained.

更に、上記各実施の形態で示した各種処理プログラム(図6、図9、図13、図15参照。)の各処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   Furthermore, the flow of each process of the various processing programs (see FIGS. 6, 9, 13, and 15) shown in the above embodiments is also an example, and can be changed as appropriate without departing from the gist of the present invention. It goes without saying that it is possible.

実施の形態に係る施設利用者計測システム10の構成を示す模式図である。It is a schematic diagram which shows the structure of the facility user measurement system 10 which concerns on embodiment. 実施の形態に係る施設利用者計測システム10の電気系の構成を示すブロック図である。It is a block diagram which shows the structure of the electric system of the facility user measurement system 10 which concerns on embodiment. 実施の形態に係るカメラ50の設置状態の説明に供する透視斜視図である。It is a see-through | perspective perspective view with which it uses for description of the installation state of the camera 50 which concerns on embodiment. 実施の形態に係るカメラ50による撮影によって得られた画像70の一例を示す概略図である。It is the schematic which shows an example of the image 70 obtained by imaging | photography with the camera 50 which concerns on embodiment. 実施の形態に係る判定エリアA1及び輝度補正エリアA2の説明に供する概略図である。It is the schematic where it uses for description of determination area A1 and brightness correction area A2 which concern on embodiment. 実施の形態に係る施設利用者計測処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the facility user measurement process program which concerns on embodiment. デジタル画像データにより示される画像における画像変化領域の変化方向の検出方法の説明に供する概略図である。It is the schematic where it uses for description of the detection method of the change direction of the image change area | region in the image shown by digital image data. 実施の形態に係る計測情報の一例を示す模式図である。It is a schematic diagram which shows an example of the measurement information which concerns on embodiment. 実施の形態に係る個別認識処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the separate recognition process program which concerns on embodiment. 実施の形態に係る分類情報の一例を示す模式図である。It is a schematic diagram which shows an example of the classification information which concerns on embodiment. デジタル画像データからの特徴データの抽出方法の説明に供する模式図である。It is a schematic diagram with which it uses for description of the extraction method of the feature data from digital image data. 実施の形態に係る対応付情報の一例を示す模式図である。It is a schematic diagram which shows an example of the corresponding | compatible information which concerns on embodiment. 実施の形態に係る計測補正処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the measurement correction process program which concerns on embodiment. 実施の形態に係る計測補正画面の一例を示す概略図である。It is the schematic which shows an example of the measurement correction screen which concerns on embodiment. 実施の形態に係る個別認識補正処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the separate recognition correction process program which concerns on embodiment. 実施の形態に係る個別認識補正画面の一例を示す概略図である。It is the schematic which shows an example of the separate recognition correction screen which concerns on embodiment.

符号の説明Explanation of symbols

10 施設利用者計測システム
20 施設利用者計測装置
22 CPU(第1抽出手段、第2抽出手段、判定手段、除外手段)
28 ハードディスク(記憶手段)
32 マウス(指定入力手段)
34 ディスプレイ(表示手段)
50 カメラ(画像取得手段)
A1 判定エリア(通過領域)
A2 輝度補正エリア
DESCRIPTION OF SYMBOLS 10 Facility user measurement system 20 Facility user measurement apparatus 22 CPU (1st extraction means, 2nd extraction means, determination means, exclusion means)
28 Hard disk (storage means)
32 mouse (designated input means)
34 Display (display means)
50 Camera (Image acquisition means)
A1 judgment area (passing area)
A2 Brightness correction area

Claims (13)

所定領域に対する人の入出状況を把握するための画像処理を行う画像処理装置であって、
前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得手段と、
前記画像取得手段により取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得手段により取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出手段と、
前記第1抽出手段により抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出手段により抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出手段により抽出された前記第1画像情報と前記第1抽出手段により抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出手段と、
前記第2抽出手段により抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を記憶する記憶手段と、
を備えた画像処理装置。
An image processing apparatus that performs image processing for grasping a person's entry / exit status with respect to a predetermined area,
Image acquisition means for capturing a plurality of pieces of image information by photographing a passing region through which a person passes when entering and exiting the predetermined region at predetermined intervals;
Comparing the plurality of image information acquired by the image acquisition means with background image information predetermined as image information acquired by the image acquisition means in a state where a person does not pass through the passage area; The image in which the moving direction in the time series order of the difference area on the image with respect to the background image information substantially matches the passing direction when a person passes through the passing area in order to enter the predetermined area. The information is extracted as first image information acquired by photographing when a person is passing through the passing area to enter the predetermined area, and the passing area is extracted so that the moving direction exits the predetermined area. the second image information person the passage region of the image information in order to exit from the predetermined area in the passing direction substantially coincides is acquired by shooting it passes through when a person passes A first extracting means for extracting,
In the direction from the newest first image information extracted by the first extracting means to the oldest first image information, the oldest first image information from the newest second image information extracted by the first extracting means. in order 2 image information indicating an image including the irradiation combined and the same person and the extracted second image information by the extracted first image information said first extraction means by said first extracting means Second extraction means for extracting the first image information and the second image information;
Storage means for storing acquisition times by the image acquisition means for each of the first image information and the second image information extracted by the second extraction means;
An image processing apparatus.
前記第1抽出手段は、前記画像取得手段によって取得された複数の画像情報の各々の前記通過領域に対応する全ての画素データと対応する前記背景画像情報の画素データとの差の絶対値を前記複数の画像情報毎に積算し、該積算結果が所定値以上の前記画像情報を抽出対象とする  The first extraction unit calculates an absolute value of a difference between all the pixel data corresponding to the passing area of each of the plurality of pieces of image information acquired by the image acquisition unit and the corresponding pixel data of the background image information. Integration is performed for each of a plurality of pieces of image information, and the image information for which the integration result is a predetermined value or more is extracted.
請求項1記載の画像処理装置。  The image processing apparatus according to claim 1.
前記第1抽出手段は、前記画像取得手段によって取得された複数の画像情報の各々と前記背景画像情報とを比較し、該背景画像情報との画像上の差異領域の幅が所定幅以下の差異領域を抽出対象とする  The first extraction unit compares each of the plurality of pieces of image information acquired by the image acquisition unit with the background image information, and the difference between the background image information and the difference area on the image is a predetermined width or less. Extract region
請求項1または請求項2記載の画像処理装置。  The image processing apparatus according to claim 1.
前記第1抽出手段は、前記画像取得手段により取得された複数の画像情報によって示される画像の輝度レベルが前記背景画像情報によって示される画像の輝度レベルに応じたレベルとなるように前記複数の画像情報を調整した後に前記第1画像情報及び前記第2画像情報を抽出する  The first extraction unit is configured to set the plurality of images so that the luminance level of the image indicated by the plurality of image information acquired by the image acquisition unit is a level corresponding to the luminance level of the image indicated by the background image information. Extracting the first image information and the second image information after adjusting the information
請求項1〜請求項3の何れか1項に記載の画像処理装置。  The image processing apparatus according to any one of claims 1 to 3.
前記第2抽出手段は、前記第1画像情報及び前記第2画像情報により示される各画像に含まれる人の画像領域を上半身領域及び下半身領域に分割し、当該上半身領域及び下半身領域の双方の一致度が所定度合より高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出する  The second extraction unit divides a human image area included in each image indicated by the first image information and the second image information into an upper body area and a lower body area, and matches both the upper body area and the lower body area. The first image information and the second image information whose degrees are higher than a predetermined degree are extracted as indicating images containing the same person
請求項1〜請求項4の何れか1項記載の画像処理装置。  The image processing apparatus according to claim 1.
前記画像取得手段を、前記画像情報をカラーで取得するものとし、  The image acquisition means acquires the image information in color,
前記第2抽出手段は、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分との分布状態の一致度が所定度合より高く、かつ前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分との分布状態の一致度が所定度合より高い場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出する  The second extraction means includes each color component of the upper body region of the person included in the image indicated by the first image information and each color component of the upper body region of the person included in the image indicated by the second image information. The degree of coincidence of the distribution state is higher than a predetermined degree, and the lower body region of the person included in the image indicated by the second image information and each color component of the lower body region of the person included in the image indicated by the first image information When the degree of coincidence of the distribution state with each color component is higher than a predetermined degree, the first image information and the second image information are extracted as indicating images containing the same person.
請求項5記載の画像処理装置。  The image processing apparatus according to claim 5.
前記第2抽出手段は、前記第1画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記上半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められた値以上となる輝度領域範囲との重なり量の積算値、及び前記第1画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められ値以上となる輝度領域範囲と前記第2画像情報により示される画像に含まれる人の前記下半身領域の各色成分毎の輝度値のヒストグラムにおける予め定められた値以上となる輝度領域範囲との重なり量の積算値の双方が予め定められた積算値以上である場合に前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出する  The second extraction means includes a luminance region range that is equal to or greater than a predetermined value in a histogram of luminance values for each color component of the upper body region of the person included in the image indicated by the first image information, and the second image information. Indicated by the integrated value of the amount of overlap with a luminance area range that is equal to or greater than a predetermined value in a histogram of luminance values for each color component of the upper body area of the person included in the image indicated by Each color component of the lower body area of the person included in the image indicated by the luminance area range that is equal to or greater than a predetermined value in a histogram of luminance values for each color component of the lower body area of the person included in the image Both the integrated values of the overlapping amounts with the luminance region range that is equal to or greater than a predetermined value in the histogram of each luminance value are equal to or greater than the predetermined integrated value Extracting the first image information and the second image information as an indication of the image including the same person in some cases
請求項6記載の画像処理装置。  The image processing apparatus according to claim 6.
前記第2抽出手段は、前記第1画像情報により示される画像に含まれる人の着衣の柄と前記第2画像情報により示される画像に含まれる人の着衣の柄との一致度が所定度合いより高い前記第1画像情報及び前記第2画像情報を同一人物が含まれる画像を示すものとして抽出する  The second extraction means has a degree of coincidence between the pattern of the person's clothing included in the image indicated by the first image information and the pattern of the person's clothing included in the image indicated by the second image information based on a predetermined degree. The first image information and the second image information that are high are extracted as indicating images containing the same person.
請求項1〜請求項4の何れか1項記載の画像処理装置。  The image processing apparatus according to claim 1.
前記第2抽出手段は、前記第1画像情報により示される画像と前記第2画像情報により示される画像の同一画像領域における輝度レベルが等しくなるように前記第1画像情報及び前記第2画像情報の少なくとも一方を調整した後に前記抽出を行う  The second extraction unit is configured to store the first image information and the second image information so that luminance levels in the same image region of the image indicated by the first image information and the image indicated by the second image information are equal. Perform the extraction after adjusting at least one
請求項1〜請求項8の何れか1項記載の画像処理装置。  The image processing apparatus according to claim 1.
前記記憶手段は、前記入出状況の把握対象から除外したい人の画像の予め定められた特徴量を示す除外特徴量情報を予め記憶すると共に、  The storage means stores in advance exclusion feature amount information indicating a predetermined feature amount of an image of a person who wants to be excluded from the grasp target of the entry / exit status,
前記第1画像情報及び前記第2画像情報により示される人の画像の前記特徴量を示す特徴量情報と前記除外特徴量情報とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する判定手段と、  The feature amount information indicating the feature amount of the human image indicated by the first image information and the second image information is collated with the excluded feature amount information, and the first image information and the second image information are used. Determining means for determining whether or not the person indicated is the person to be excluded;
前記判定手段により前記除外したい人であると判定された前記第1画像情報及び前記第2画像情報を処理対象から除外する除外手段と、  Exclusion means for excluding the first image information and the second image information determined to be excluded by the determination means from the processing target;
を更に備えた請求項1〜請求項9の何れか1項記載の画像処理装置。  The image processing apparatus according to claim 1, further comprising:
前記記憶手段は、前記除外特徴量情報として前記除外したい人の着衣の特徴を示す着衣特徴情報を予め記憶し、  The storage means stores in advance clothing feature information indicating the features of the clothes of the person who wants to be excluded as the excluded feature amount information,
前記判定手段は、前記第1画像情報及び前記第2画像情報により示される人の着衣の特徴と前記着衣特徴情報により示される着衣の特徴とを照合して、前記第1画像情報及び前記第2画像情報により示される人が前記除外したい人であるか否かを判定する  The determination means collates the characteristics of the person's clothes indicated by the first image information and the second image information with the characteristics of the clothes indicated by the clothes characteristic information, and determines the first image information and the second image information. Determine whether the person indicated by the image information is the person who wants to exclude
請求項10記載の画像処理装置。  The image processing apparatus according to claim 10.
前記第1抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像、及び前記第2抽出手段により抽出されなかった前記第1画像情報及び前記第2画像情報により示される各画像を表示するための表示手段と、  According to each image indicated by the first image information and the second image information not extracted by the first extraction means, and by the first image information and the second image information not extracted by the second extraction means. Display means for displaying each image shown;
前記表示手段により表示された画像において、前記所定領域に入るために前記通過領域を人が通過しているときの画像を指定する第1指定、及び前記所定領域から出るために前記通過領域を人が通過しているときの画像を指定する第2指定の少なくとも1つの指定を入力する指定入力手段と、  In the image displayed by the display means, a first designation that designates an image when a person is passing through the passing area to enter the predetermined area, and a person passing the passing area to exit the predetermined area. Designation input means for inputting at least one designation of a second designation for designating an image when
各々同一人物を含む前記第1指定により指定された画像と前記第2指定により指定された画像とを対応付ける対応付け指示を入力する対応付け指示入力手段と、  Association instruction input means for inputting an association instruction for associating the image designated by the first designation and the image designated by the second designation, each including the same person;
前記対応付け指示入力手段によって入力された対応付け指示により対応付けられた前記第1指定により指定された画像及び前記第2指定により指定された画像を示す前記第1画像情報及び前記第2画像情報の各々の前記画像取得手段による取得時間を前記記憶手段に記憶するように制御を行う制御手段と、を更に備えた請求項1〜請求項11の何れか1項記載の画像処理装置。  The first image information and the second image information indicating the image designated by the first designation and the image designated by the second designation associated by the association instruction input by the association instruction input means. The image processing apparatus according to claim 1, further comprising a control unit that performs control so as to store an acquisition time of each of the image acquisition units in the storage unit.
所定領域に対する人の入出状況を把握するための画像処理を行う画像処理プログラムであって、  An image processing program for performing image processing for grasping a person's entry / exit status with respect to a predetermined area,
前記所定領域に入る際と前記所定領域から出る際に人が通過する通過領域を所定期間毎に撮影して複数の画像情報を取得する画像取得ステップと、  An image acquisition step of capturing a plurality of pieces of image information by photographing a passing region through which a person passes when entering the predetermined region and exiting the predetermined region for each predetermined period;
前記画像取得ステップにより取得された複数の画像情報と前記通過領域を人が通過していない状態で前記画像取得ステップにより取得された画像情報として予め定められた背景画像情報とを比較し、前記複数の画像情報から、前記背景画像情報との画像上の差異領域の時系列順での移動方向が前記所定領域に入るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域に入るために前記通過領域を人が通過しているときの撮影によって取得された第1画像情報として抽出すると共に、前記移動方向が前記所定領域から出るために前記通過領域を人が通過するときの通過方向に略一致する前記画像情報を前記所定領域から出るために前記通過領域を人が通過しているときの撮影によって取得された第2画像情報として抽出する第1抽出ステップと、  The plurality of image information acquired by the image acquisition step is compared with the background image information predetermined as the image information acquired by the image acquisition step in a state where no person passes through the passage area, The image in which the moving direction in the time series order of the difference area on the image with respect to the background image information substantially matches the passing direction when a person passes through the passing area in order to enter the predetermined area. The information is extracted as first image information acquired by photographing when a person is passing through the passing area to enter the predetermined area, and the passing area is extracted so that the moving direction exits the predetermined area. A second image acquired by photographing when a person is passing through the passing area in order to leave the image information that substantially matches the passing direction when the person passes through the predetermined area. A first extraction step of extracting as a broadcast,
前記第1抽出ステップにより抽出された最も新しい前記第1画像情報から最も古い前記第1画像情報に向かう方向に、前記第1抽出ステップにより抽出された最も新しい前記第2画像情報から最も古い前記第2画像情報の順で、前記第1抽出ステップにより抽出された前記第1画像情報と前記第1抽出ステップにより抽出された前記第2画像情報とを照合して同一人物が含まれる画像を示す前記第1画像情報と前記第2画像情報を抽出する第2抽出ステップと、  In the direction from the newest first image information extracted by the first extraction step to the oldest first image information, the oldest second image information extracted from the newest second image information extracted by the first extraction step. In the order of two image information, the first image information extracted by the first extraction step and the second image information extracted by the first extraction step are collated to indicate an image including the same person A second extraction step for extracting the first image information and the second image information;
前記第2抽出ステップにより抽出された前記第1画像情報及び前記第2画像情報の各々の前記画像取得ステップによる取得時間を記憶手段に記憶する記憶ステップと、  A storage step of storing, in a storage unit, an acquisition time of each of the first image information and the second image information extracted by the second extraction step by the image acquisition step;
をコンピュータに実行させるための画像処理プログラム。  An image processing program for causing a computer to execute.
JP2003290003A 2003-08-08 2003-08-08 Image processing apparatus and image processing program Expired - Fee Related JP4408355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003290003A JP4408355B2 (en) 2003-08-08 2003-08-08 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003290003A JP4408355B2 (en) 2003-08-08 2003-08-08 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2005063010A JP2005063010A (en) 2005-03-10
JP4408355B2 true JP4408355B2 (en) 2010-02-03

Family

ID=34368157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003290003A Expired - Fee Related JP4408355B2 (en) 2003-08-08 2003-08-08 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4408355B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4843297B2 (en) * 2005-11-24 2011-12-21 良次 大塲 Subject monitoring method, subject monitoring device, and subject monitoring program
JP5683176B2 (en) * 2010-09-02 2015-03-11 株式会社ホギメディカル Notification device and notification program
JP6347125B2 (en) * 2014-03-24 2018-06-27 大日本印刷株式会社 Attribute discrimination device, attribute discrimination system, attribute discrimination method, and attribute discrimination program
JP6473308B2 (en) * 2014-09-29 2019-02-20 アズビル株式会社 Control system

Also Published As

Publication number Publication date
JP2005063010A (en) 2005-03-10

Similar Documents

Publication Publication Date Title
US9141184B2 (en) Person detection system
JP5175852B2 (en) Video analysis device, method for calculating evaluation value between persons by video analysis
US11625949B2 (en) Face authentication apparatus
KR101337060B1 (en) Imaging processing device and imaging processing method
JP6172551B1 (en) Image search device, image search system, and image search method
JP5669082B2 (en) Verification device
CN115499586A (en) Image masking method for monitoring system
US11620728B2 (en) Information processing device, information processing system, information processing method, and program
US20110063441A1 (en) Imager and surveillance system
US20190147251A1 (en) Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
CN111209446A (en) Method and device for presenting personnel retrieval information and electronic equipment
JP2020187531A (en) Information processing equipment, information processing methods and programs
JP4408355B2 (en) Image processing apparatus and image processing program
US10783365B2 (en) Image processing device and image processing system
WO2023284307A1 (en) Image processing method and apparatus, and electronic device, storage medium and computer program product
US12400482B2 (en) Image processing device, image processing method, and non-transitory computer readable medium
JP2020095651A (en) Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program
CN117437673A (en) Image processing method, device, computer equipment and storage medium
JP2007312271A (en) Surveillance system
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
JP2009042879A (en) Person search device and person search method
EP3814989B1 (en) Method and apparatus for facilitating identification
JP2020078025A (en) Object authentication system, object registration device, object authentication method, and object authentication program
JP2025087476A (en) Information collection system and information collection method
CN116823302A (en) Supermarket people stream monitoring and commodity setting method based on big data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees