JP2021170176A - Individual identification system and individual identification program - Google Patents
Individual identification system and individual identification program Download PDFInfo
- Publication number
- JP2021170176A JP2021170176A JP2020072416A JP2020072416A JP2021170176A JP 2021170176 A JP2021170176 A JP 2021170176A JP 2020072416 A JP2020072416 A JP 2020072416A JP 2020072416 A JP2020072416 A JP 2020072416A JP 2021170176 A JP2021170176 A JP 2021170176A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- personal identification
- information
- temperature information
- feature acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】プライバシーを考慮し、軽い負担で個人の特徴を識別する。【解決手段】本発明の個人識別システムは、個人を被写体とする2次元の温度情報を取得する特徴取得装置と、取得した温度情報から個人の特徴を識別する個人識別装置と、識別した個人の特徴を出力する提示装置と、を備えることを特徴とする。さらに、特徴取得装置は、個人の頭部より上方に設置され、特徴取得装置と特徴取得装置の視野面の中心点とを結ぶ光軸は、水平ではなく垂直でもないこと、を特徴とする。【選択図】図1PROBLEM TO BE SOLVED: To identify an individual's characteristics with a light burden in consideration of privacy. SOLUTION: The personal identification system of the present invention has a feature acquisition device that acquires two-dimensional temperature information of an individual as a subject, a personal identification device that identifies an individual's characteristics from the acquired temperature information, and an identified individual. It is characterized by including a presentation device that outputs features. Further, the feature acquisition device is installed above the head of an individual, and the optical axis connecting the feature acquisition device and the center point of the visual field surface of the feature acquisition device is neither horizontal nor vertical. [Selection diagram] Fig. 1
Description
本発明は、個人識別システム及び個人識別プログラムに関する。 The present invention relates to personal identification systems and personal identification programs.
近時、住宅、オフィス等多くの場所において、人を識別する技術が普及している。この技術では、指紋、静脈等の生体情報、顔画像、又は、カードに埋め込まれた個人識別番号等の情報を利用し、個人識別を行う。 Recently, technology for identifying people has become widespread in many places such as houses and offices. In this technique, personal identification is performed by using biological information such as fingerprints and veins, facial images, or information such as a personal identification number embedded in a card.
特許文献1の識別装置は、例えば、住宅内にいる被見守り者を検知する。特許文献1の識別装置は、人の映像から算出した特徴量と、予めデータベースに登録されている特徴量を比較することによって人を識別する。特許文献2の入場管理システムは、クリーンルームに入る人の衛生行為を管理する。特許文献2の入場管理システムは、清掃用具に付された指紋認証センサを介して人の指紋を取得し、エアシャワー付近に配置された受信機を介して人が携帯するRFIDタグを読み取る。 The identification device of Patent Document 1 detects, for example, a watcher in a house. The identification device of Patent Document 1 identifies a person by comparing the feature amount calculated from the image of the person with the feature amount registered in the database in advance. The admission management system of Patent Document 2 manages the hygienic behavior of a person entering a clean room. The entrance management system of Patent Document 2 acquires a fingerprint of a person through a fingerprint authentication sensor attached to a cleaning tool, and reads an RFID tag carried by the person through a receiver arranged near an air shower.
しかしながら、特許文献1の識別装置は、映像から人の特徴量を算出する。したがって、撮像された人は、自身のプライバシーが守られているか否かが不安になる。なぜならば、映像に顔、服装、機密情報等が写り込んでいる場合、これらの重要な個人情報を流出するおそれがあるからである。特許文献2の入場管理システムは、指紋及びRFIDを取得する。指紋及びRFIDは、映像に比べれば、前記の個人情報を含まないため、プライバシーの負担感が少ない一方、指を指紋認証センサに接触させる、RFIDタグを常に携帯する等の手間が人に課されることになる。
そこで、本発明は、プライバシーを考慮し、軽い負担で個人の特徴を識別することを目的とする。
However, the identification device of Patent Document 1 calculates a human feature amount from an image. Therefore, the photographed person is worried whether or not his / her privacy is protected. This is because if the face, clothes, confidential information, etc. are reflected in the video, there is a risk that these important personal information will be leaked. The admission management system of Patent Document 2 acquires fingerprints and RFID. Compared to video, fingerprints and RFID do not contain the above-mentioned personal information, so there is less burden on privacy, but on the other hand, people are required to take the trouble of touching their fingers to the fingerprint authentication sensor and always carrying RFID tags. Will be.
Therefore, it is an object of the present invention to identify individual characteristics with a light burden in consideration of privacy.
本発明の個人識別システムは、個人を被写体とする2次元の温度情報を取得する特徴取得装置と、取得した温度情報から個人の特徴を識別する個人識別装置と、識別した個人の特徴を出力する提示装置と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The personal identification system of the present invention outputs a feature acquisition device that acquires two-dimensional temperature information of an individual as a subject, a personal identification device that identifies the individual characteristics from the acquired temperature information, and the identified individual characteristics. It is characterized by including a presentation device.
Other means will be described in the form for carrying out the invention.
本発明によれば、プライバシーを考慮し、軽い負担で個人の特徴を識別することができる。 According to the present invention, in consideration of privacy, individual characteristics can be identified with a light burden.
以降、本発明を実施するための第1の実施形態及び第2の実施形態を、図等を参照しながら詳細に説明する。第1の実施形態は、人の温度情報に基づいて個人の特徴を識別する例である。第2の実施形態は、人の温度情報及びそれ以外の生体情報に基づいて個人の特徴を識別する例である。 Hereinafter, the first embodiment and the second embodiment for carrying out the present invention will be described in detail with reference to figures and the like. The first embodiment is an example of identifying an individual's characteristics based on a person's temperature information. The second embodiment is an example of identifying an individual's characteristics based on human temperature information and other biological information.
〈第1の実施形態〉
(個人識別装置1の構成)
図1は、第1の実施形態における個人識別装置1の構成等を説明する図である。個人識別装置1は、一般的なコンピュータであり、中央制御装置11、マウス、キーボード等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、温度情報31、学習データ32及び特徴モデル33(いずれも詳細後記)を格納している。
<First Embodiment>
(Configuration of personal identification device 1)
FIG. 1 is a diagram illustrating a configuration and the like of the personal identification device 1 according to the first embodiment. The personal identification device 1 is a general computer, and includes a
主記憶装置14における学習処理部21及び識別処理部22は、プログラムである。中央制御装置11は、これらのプログラムを補助記憶装置15から読み出し主記憶装置14にロードすることによって、それぞれのプログラムの機能(詳細後記)を実現する。補助記憶装置15は、個人識別装置1から独立した構成となっていてもよい。さらには、個人識別装置1の各構成が、多くの独立した筐体(クラウドコンピュータ)として分散していてもよい。個人識別装置1は、ネットワーク4を介して、特徴取得装置2及び掲示装置3と通信可能である。掲示装置3は、室内に設置されていてもよい。個人識別装置1、特徴取得装置2及び掲示装置3は、個人識別システムを構成する。
The
(特徴取得装置の位置及び角度)
ドア5が、空間1と空間2とを隔てている。人(個人)6は、ドア5を開けて空間2に入る。空間2側のドア5の上部の天井付近に、特徴取得装置2が設置されている。特徴取得装置2は、視野面の温度分布を検知する赤外線アレイセンサである(詳細後記)。特徴取得装置2の床面からの高さは、人6の頭部の床面からの高さよりも高い。したがって、人6は、特徴取得装置2の視野内に容易に収まる。個人識別システムのユーザは、現場の実情に応じて、この高さ条件を満たすように、特徴取得装置2をドア5の枠部、ドア5付近の天井、建物の出入り口の枠又は通路の天井等に設置する。
(Position and angle of feature acquisition device)
The
視野面の中心と特徴取得装置2とを結ぶ直線(光軸)7と水平線8とがなす角を“θ”とする。図1において、“0度<θ<90度”が成立している。つまり、光軸7は、水平でも垂直でもない。θが0度である場合、天井付近の空間のみが視野に入り、人6が視野に入りにくい。θが90度である場合、人6は確実に視野に入るものの、視野内の空間は狭く、人6は一瞬にして視野を通過してしまう。結局、“0度<θ<90度”というθの範囲が、身長、体格(肉厚)、歩容等を含む個人の特徴を確実かつ安定的に取得することを担保する。個人識別システムのユーザは、現場の実情に応じて、この範囲内でθの値を任意に設定する。
The angle formed by the straight line (optical axis) 7 connecting the center of the visual field surface and the feature acquisition device 2 and the
(温度情報)
特徴取得装置2は、人6を被写体とする温度情報31を取得する。温度情報31は、“サーモグラフィー”と呼ばれることもある。温度情報31は、被写体の表面の温度を2次元的に色彩で示すデータである(図5参照)。同じ人6の顔面温度、体温等は、通常同じとなる。したがって、温度情報31は、人6の大まかな輪郭は示すものの、細かな周囲の特徴までは表現し得ない。このことが、被写体となった人6のプライバシーを保護する。
(Temperature information)
The feature acquisition device 2 acquires
人6の表面からは、常に赤外線が放射されている。赤外線の放射量は、表面温度の4乗に比例する。特徴取得装置2は、レンズ(図示せず)及び素子を備える。レンズは、この赤外線を集光して素子に当てる。素子は、赤外線の放射量を温度に変換する。素子の例として、サーモパイル素子、サーミスタ素子等が存在する。サーモパイル素子は、異種の金属間に発生する起電力に基づきこの変換を行う。サーミスタ素子は、自身の抵抗値の変化に基づきこの変換を行う。
Infrared rays are constantly emitted from the surface of the
(素子の配列)
図2及び図3は、素子41の配列を説明する図である。図2に示すように、特徴取得装置2の視野面(集光面)上に、素子41が縦横の2次元状に規則正しく配列している。配列サイズは4×4以上であることが望ましい。配列サイズが大きいほど温度の分解能が向上する。分解能を向上させるために、複数の素子41の集合(アレイ)42が、さらに縦横の2次元状に配列されてもよい。図3においては、2×2の素子の集合42が、さらに2×2に配列されている。第1及び第2の実施形態では、8×8のサーモパイル素子が使用される。
(Arrangement of elements)
2 and 3 are views for explaining the arrangement of the
(人の検知)
図4は、人の検知を説明する図である。説明の便宜上、いま、特徴取得装置2は、連続の時点t1、t2及びt3において、それぞれ、温度情報31a、31b及び31cを取得したとする。このように時系列で取得された複数の温度情報のそれぞれは、“フレーム”とも呼ばれる。図4の例では、特徴取得装置2は、4×4個の素子を有する。フレーム31a、31b及び31cのそれぞれは、各素子に対応する4×4のピクセル51を有している。ここでのピクセル51は、色の濃度を変化させる。黒は高温を示し、白は低温を示す。
(Human detection)
FIG. 4 is a diagram illustrating the detection of a person. For convenience of explanation, it is assumed that the feature acquisition device 2 has acquired
個人識別装置1は、2つの隣接するフレーム間の差分を作成する。差分52abは、フレーム31aと31bとの間の差分である。差分52bcは、フレーム31bと31cとの間の差分である。差分52ab及び52bcもまた、4×4のピクセル51を有し、各ピクセル51は、差分値を保持している。差分値とは、直前の時点におけるあるピクセルの温度から直後の時点における当該ピクセルの温度を減算した結果である。ピクセルは、色の濃度を変化させる。黒は温度が大きいことを示し、白は温度が小さいことを示す。差分52abの各ピクセル51の値が小さいのに対し、差分52bcのうちには、差分値が大きいピクセル51が存在する。個人識別装置1は、差分値に閾値を適用して人6の通過を検知する。
The personal identification device 1 creates a difference between two adjacent frames. The difference 52ab is the difference between the
より具体的には、個人識別装置1は、以下の事象のうちいずれかが発生した場合、人が通過したと判断する。
〈事象1〉差分値の平均が所定の閾値Th1以上である。
〈事象2〉所定の閾値Th2以上の差分値を有するピクセル51の数が所定の閾値Th3以上である。
More specifically, the personal identification device 1 determines that a person has passed when any of the following events occurs.
<Event 1> The average of the difference values is equal to or higher than the predetermined threshold Th1.
<Event 2> The number of
事象1について、閾値Th1が大きいほど、個人識別装置1の感度は低くなる。ユーザは、経験に基づき適当な閾値Th1を設定する。一般的には、閾値Th1は、0.5℃〜3.0℃であるのが望ましい。環境温度(気温)が高いほど、人6の体温と環境温度との差分が小さくなるので、閾値Th1を比較的小さな値に設定するのが望ましい。
For event 1, the larger the threshold Th1, the lower the sensitivity of the personal identification device 1. The user sets an appropriate threshold Th1 based on experience. Generally, the threshold Th1 is preferably 0.5 ° C to 3.0 ° C. The higher the environmental temperature (air temperature), the smaller the difference between the body temperature of the
事象2について、閾値Th2が大きいほど、また、Th3が大きいほど、個人識別装置1の感度は低くなる。ユーザは、経験に基づき適当な閾値Th2及びTh3を設定する。一般的には、閾値Th2は、1.0℃〜7.0℃であるのが望ましく、閾値Th3は、2個〜5個であるのが望ましい。 Regarding event 2, the larger the threshold Th2 and the larger Th3, the lower the sensitivity of the personal identification device 1. The user sets appropriate thresholds Th2 and Th3 based on experience. In general, the threshold Th2 is preferably 1.0 ° C to 7.0 ° C, and the threshold Th3 is preferably 2 to 5.
(補間)
図5は、温度情報(フレーム)31の補間を説明する図である。フレーム61は、8×8のピクセルを有する。フレーム62は、32×32のピクセルを有する。フレーム62はフレーム61に比して、より解像度が高く、被写体の人の特徴をより詳しく示している。図5の例では、補間倍率は、32/8=4倍である。ユーザは、温度情報31が充分見やすく、かつ、処理速度が遅くならない程度に、補間倍率を決定する。個人識別装置1は、フレーム61に対して補間処理を施すことによって、フレーム62を作成する。補間処理の具体例としては、バイキュービック法、バイリニア法、ニアリストネイバー法等が知られている。
(interpolation)
FIG. 5 is a diagram illustrating interpolation of temperature information (frame) 31. The frame 61 has 8 × 8 pixels. The frame 62 has 32 × 32 pixels. The frame 62 has a higher resolution than the frame 61 and shows the characteristics of the person as the subject in more detail. In the example of FIG. 5, the interpolation magnification is 32/8 = 4 times. The user determines the interpolation magnification so that the
(バイキュービック法による補間処理)
図6は、バイキュービック法による補間処理を説明する図である。説明の便宜上、いま、2×2のピクセル51a〜51dを有する1つのフレーム63があるとする。ピクセル51aの温度は“0”であり、ピクセル51bの温度は“10”であり、ピクセル51cの温度は“10”であり、ピクセル51dの温度は“20”である。これらはすべて、特徴取得装置2が取得したもとのデータである。
(Interpolation processing by bicubic method)
FIG. 6 is a diagram illustrating interpolation processing by the bicubic method. For convenience of explanation, it is assumed that there is now one
個人識別装置1は、各ピクセルを例えば3×3個の仮想ピクセル53に分割する。ここで、“仮想”と命名したのは、そのピクセルが実際の素子に対応していない専ら情報処理上のものであるからである。そして、個人識別装置1は、仮想ピクセル53のそれぞれにもとのピクセル51a〜51dの温度を保持させる。その結果、フレーム63は、フレーム64になる。フレーム64は、温度“0”の仮想ピクセル53を9個有し、温度“10”の仮想ピクセル53を18個有し、温度“20”を有する仮想ピクセル53を9個有する。
The personal identification device 1 divides each pixel into, for example, 3 × 3
個人識別装置1は、格子点65を中心とする太線で囲まれた4×4個の仮想ピクセル53の温度の平均値を算出する。算出結果は、“(0×4+10×8+20×4)/16=10”となる。個人識別装置1は、格子点65に温度“10.0”を関連付ける。同様に、個人識別装置1は、他のすべての格子点に、周辺の4×4個の仮想ピクセル53の温度の平均値を関連付ける。各格子点に関連付けられた温度は、“7.5”、“10.0”、“12.5”、・・・のように、もとの“0”、“10”及び“20”よりも刻み幅が小さくなっている。各格子点に関連付けられた温度は、2次元的な移動平均値であるともいえる。
The personal identification device 1 calculates the average temperature of 4 × 4
その後、個人識別装置1は、縦横の格子線(仮想ピクセル53の境界線)を縦方向及び横方向に仮想ピクセル53の一辺の1/2の長さだけ平行移動させる(図示せず)。すると、仮想ピクセル53の中に、補間処理の結果としての温度の平均値が収まる。図6のフレーム63及び64は、それぞれ、図5のフレーム61及び62に対応している。
After that, the personal identification device 1 translates the vertical and horizontal grid lines (the boundary line of the virtual pixel 53) in the vertical and horizontal directions by half the length of one side of the virtual pixel 53 (not shown). Then, the average value of the temperature as a result of the interpolation processing is settled in the
(特徴モデル)
特徴モデル33(図1)は、2次元の温度情報31を入力とし、個人の特徴を出力とする関数である。特徴モデル33は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。各層は、複数のノードを有し、各ノードと、出力層側の次の層のすべてのノードとの間にリンクが存在する。各リンクは、リンクの元のノードがリンクの先のノードに与える情報量の百分率を示す重みをパラメータとして有する。
(Characteristic model)
The feature model 33 (FIG. 1) is a function that inputs two-
個人識別装置1は、学習データを使用した学習処理によってこのパラメータを最適化する。個人識別装置1は、パラメータが最適化された特徴モデル33に対して温度情報31を入力することによって、その特徴モデル33の出力としての個人の特徴を取得する。ニューラルネットワークは、画像処理の分野で広く使用されている。温度情報31は、画像に酷似する。そこで、個人識別装置1もまた、ニューラルネットワークを使用することが望ましい。
The personal identification device 1 optimizes this parameter by a learning process using the learning data. The personal identification device 1 acquires the personal characteristics as the output of the
(個人の特徴)
特徴モデル33の出力としての個人の特徴を具体的にどのような情報にするかは、ユーザ次第である。多くのユーザは、個人を一意に特定する“個人ID”の出力を望む。なぜならば、後続する他の情報処理(後記する、警備、見守り、先回り等)を行うためには、“誰が”ドア5を通過したかという情報の必要性が最も大きいからである。
(Individual characteristics)
It is up to the user to specify what kind of information the individual characteristics as the output of the
しかしながら、ユーザによっては、人を特定する必要性は小さく、むしろ、ドア5を通過した人の外形又は状態が必要である場合もあり得る。外形とは、例えば、身長が高い、肥満している、特定の持ち物を携帯している等の特徴である。状態とは、よそ見をしている、上体が揺れている、まっすぐ歩いていない、車椅子に乗っている等の特徴である。そこで、特徴モデル33が出力する個人の特徴は、個人IDだけではなく、個人の外形及び状態を含む。後記する学習データのラベルも、個人IDだけではなく、個人の外形及び状態を含む。
However, depending on the user, the need to identify the person is small, but rather the outer shape or condition of the person who has passed through the
(特徴モデルに入力される温度情報の例)
図7は、特徴モデル33に入力される温度情報31を説明する図である。説明の便宜上、ある人6が、時点t1〜t6において、ドア5を通過したとする。そして、特徴取得装置2は、8×8の温度情報(図5符号61)を取得し、個人識別装置1は、その温度情報に対して補間処理を施し、32×32の温度情報(図5符号62)を作成したとする。
(Example of temperature information input to the feature model)
FIG. 7 is a diagram for explaining the
図7においては、補間処理後の32×32の温度情報(フレーム)が、3×3に配列されている。フレーム位置f1、f2、・・・、f6には、時点t1、t2、・・・、t6における温度情報が格納されている。フレーム位置f7、f8及びf9には、時点f6における温度情報が重複的に格納されている。歩行速度は、人によって異なる。特徴取得装置2が温度情報を取得する周期(例えば1/10秒に1回)が一定である場合、人6が視野内に収まるフレームの数(以降“有効フレーム数”と呼ぶ)は、歩行速度によって変化する。当然、歩行速度が速いほど、有効フレーム数は小さい。
In FIG. 7, the temperature information (frames) of 32 × 32 after the interpolation processing are arranged in 3 × 3. Temperature information at time points t1, t2, ..., T6 is stored in the frame positions f1, f2, ..., F6. At the frame positions f7, f8, and f9, the temperature information at the time point f6 is stored in duplicate. Walking speed varies from person to person. When the cycle in which the feature acquisition device 2 acquires temperature information (for example, once every 1/10 second) is constant, the number of frames in which the
そこで、有効フレーム数がn(n<9)である場合、個人識別装置1は、フレーム位置f1〜fnに、時点t1〜tnにおける温度情報をそれぞれ格納し、フレーム位置fn+1〜f9に、時点tnにおける温度情報を格納する。有効フレーム数が9である場合、個人識別装置1は、フレーム位置f1〜f9に、時点t1〜t9における温度情報をそれぞれ格納する。有効フレーム数がn(n>9)である場合、個人識別装置1は、フレーム位置f1〜f9に、時点t1〜t9における温度情報をそれぞれ格納し、時点t10〜tnにおける温度情報を廃棄する。このようにすると、フレーム位置f1〜f9に格納される温度情報は、全体として、人9の体温、外形、状態等以外に、歩行速度を反映することになる。 Therefore, when the number of effective frames is n (n <9), the personal identification device 1 stores the temperature information at the time points t1 to tn at the frame positions f1 to fn, respectively, and stores the temperature information at the time points t1 to tn at the frame positions fn + 1 to f9, respectively. Stores temperature information in. When the number of effective frames is 9, the personal identification device 1 stores the temperature information at the time points t1 to t9 at the frame positions f1 to f9, respectively. When the number of effective frames is n (n> 9), the personal identification device 1 stores the temperature information at the time points t1 to t9 at the frame positions f1 to f9, and discards the temperature information at the time points t10 to tn. In this way, the temperature information stored in the frame positions f1 to f9 reflects the walking speed as a whole in addition to the body temperature, outer shape, and state of the person 9.
図7においては、9個のフレームが縦横に2次元的に配列されている。しかしながら、個人識別装置1は、9個のフレームを縦方向に積み上げて3次元的に配列してもよい。 In FIG. 7, nine frames are two-dimensionally arranged vertically and horizontally. However, the personal identification device 1 may stack nine frames in the vertical direction and arrange them three-dimensionally.
(学習データ)
図8は、学習データ32を説明する図である。特徴モデル33のパラメータを最適化する際に、個人識別装置1は、学習データ32を使用する。学習データ32は、温度情報に対して個人の特徴がラベルとして付加された教師付き学習データである。ここでは、説明の単純化のために、個人の特徴は、個人IDのみとしている。もちろん、ラベルが、“身長が高い”等の外形、“よそ見をしている”等の状態を含んでもよい。
(Learning data)
FIG. 8 is a diagram illustrating the learning
“S11(#,#,…)、S12(#,#,…)、・・・、S19(#,#,…)”は、全体として、図7のフレーム位置f1〜f9の温度情報、すなわち、通過した人1人分の温度情報に相当する。そのうち例えば“S11(#,#,…)”は、フレーム位置f1の温度情報に相当する。“(#,#,…)”には、温度を示す値“#”が、32×32=1024個並んでいる。 "S 11 (#, #, ...), S 12 (#, #, ...), ..., S 19 (#, #, ...)" is the temperature of the frame positions f1 to f9 in FIG. 7 as a whole. It corresponds to information, that is, temperature information for one person who has passed. Among them, for example, "S 11 (#, #, ...)" Corresponds to the temperature information of the frame position f1. In "(#, #, ...)", 32 x 32 = 1024 values indicating the temperature are arranged.
個人IDは、人6を一意に特定する識別子である。但し、ここでの個人IDは、個人識別装置1が既知の情報として受け付けたものであって、特徴モデル33を使用して推定したものではない。学習データ32は、ドア5を通過した人数分のレコード群34a、34b、34c、・・・を有する。これらのレコード群は、人6がドア5を通過した時点が早い順に上から並んでいる。なお、レコード群34a等は、上下に3次元的に配列されていてもよい。
The personal ID is an identifier that uniquely identifies the
(識別結果の活用)
個人識別システムは、人6が誰であるかを識別した結果を、例えば以下のような様々な目的に活用することができる。
〈1.警備〉個人識別システムは、その人がドア5を通過することを許可されていない場合、警告を発する。
(Utilization of identification results)
The personal identification system can utilize the result of identifying who the
<1. Security> The personal identification system issues a warning if the person is not allowed to pass through the
〈2.見守り〉個人識別システムは、個人IDに応じて、その人が室内でまず行うべき動作等をその人に通知する。例えば、個人識別システムは、車椅子に乗っている高齢者に対して“まず、車椅子に座ったまま、体操をして下さい”と通知する。
〈3.先回り〉個人識別システムは、個人IDに応じて、室内に設置された機器に対する操作を行う。例えば、個人識別システムは、空調機器の設定温度をその人の好みの水準に設定する。
<2. Watching> The personal identification system notifies the person of the action or the like that the person should first perform in the room according to the personal ID. For example, the personal identification system notifies elderly people in wheelchairs, "First, do gymnastics while sitting in a wheelchair."
<3. Advance> The personal identification system operates the equipment installed in the room according to the personal ID. For example, a personal identification system sets the set temperature of an air conditioner to a level of the person's preference.
(処理手順)
以降において、処理手順を説明する。処理手順は2つ存在し、それらは、学習処理手順及び識別処理手順である。学習処理手順が少なくとも1回実行された後に、識別処理手順が実行される。
(Processing procedure)
Hereinafter, the processing procedure will be described. There are two processing procedures, which are a learning processing procedure and an identification processing procedure. The identification process procedure is executed after the learning process procedure is executed at least once.
(学習処理手順)
図9は、学習処理手順のフローチャートである。
ステップS201において、個人識別装置1の学習処理部21は、温度情報31を取得する。具体的には、学習処理部21は、予め設定された周期で特徴取得装置2から温度情報31を取得する。
(Learning process procedure)
FIG. 9 is a flowchart of the learning process procedure.
In step S201, the
ステップS202において、学習処理部21は、人6が通過したか否かを判断する。具体的には、第1に、学習処理部21は、2つ以上の温度情報31が取得されると、図4の説明として前記した方法によって、人6がドア5を通過したか否かを判断する。
第2に、学習処理部21は、人6が通過した場合(ステップS202“Yes”)、人6が通過した時点を起点とする9時点の温度情報を保持してステップS203に進み、それ以外の場合(ステップS202“No”)、ステップS201に戻る。
In step S202, the
Secondly, when the
ステップS203において、学習処理部21は、ラベルを取得する。具体的には、学習処理部21は、ステップS202において保持した温度情報31に関連付けるラベルとなる個人IDを、例えば以下のいずれかの方法で取得する。
〈方法1〉学習処理部21は、ステップS202において保持した温度情報(9時点分)を出力装置13に表示し、その温度情報を見たユーザが、入力装置12を介して、その温度情報に該当する人6を特定する個人IDを入力するのを受け付ける。
In step S203, the
<Method 1> The
〈方法2〉学習処理部21は、ドア5の近辺に設置された開錠装置のリーダから、当該リーダが読み取った個人IDを取得する。学習期間において、人6は、個人IDを記憶したRFIDタグを携帯しており、ドア5の開錠時、RFIDタグをリーダにかざすことによって学習データの作成に協力する。学習処理部21は、人6が携帯する任意の装置(スマートフォン、タブレット、ウエアラブルデバイス等)から任意の種類のリーダを介して個人IDを取得してもよい。
<Method 2> The
個人の特徴(ラベル)として人6の外形又は状態を採用する場合、学習処理部21は、方法1に準じて、ユーザが外形又は状態を併せて入力するのを受け付けてもよい。さらに、学習処理部21は、方法2に準じて、温度情報に対してテンプレートマッチング等を実行し、“身長が高い”等の外形又は“よそ見をしている”等の状態を取得してもよい。
When adopting the outer shape or state of the
ステップS204において、学習処理部21は、温度情報を補間する。具体的には、学習処理部21は、図5及び図6の説明として前記した方法によって8×8の温度情報(図5の符号61)を、32×32の温度情報(図5の符号62)に補間する。
In step S204, the
ステップS205において、学習処理部21は、学習データを作成する。具体的には、学習処理部21は、ステップS204において補間した温度情報及びステップS203において取得した個人IDを使用して、学習データ32(図8)の新たなレコード群(34a等)を作成する。ステップS205を経由する都度、学習データ32のレコード群(34a、34b、34c、・・・)が1つずつ蓄積されて行く。個人の特徴(ラベル)として人6の外形又は状態を採用する場合、レコード群には、外形又は状態が記憶される。
In step S205, the
ステップS206において、学習処理部21は、学習データの数が所定の数の整数倍(1倍、2倍、3倍、・・・)になったか否かを判断する。所定の数が例えば“30”である場合、それは、ドア5を通過した30人分の学習データ32をまとめて使用し、特徴モデル33のパラメータを最適化することを意味する。ユーザは、処理速度が遅くならず、かつ、学習データに含まれる温度情報のはずれ値(ノイズ)が無視できる程度に、“所定の数”を設定する。
In step S206, the
学習処理部21は、学習データ32のレコード群34a等の数が所定の数の整数倍になった場合(ステップS206“Yes”)、ステップS207に進み、それ以外の場合(ステップS206“No”)、ステップS201に戻る。いま、所定の数は“30”であるとして以下の説明を続ける。
When the number of the
ステップS207において、学習処理部21は、特徴モデル33のパラメータを最適化し記憶する。具体的には、第1に、学習処理部21は、以下の処理を実行する。
(1)ランダムな値を特徴モデル33のパラメータに代入する。
(2)学習データ32のうちレコード群30個分の温度情報を特徴モデル33の入力層に入力する。
(3)特徴モデル33の出力層から、30個の個人ID(推定値)を取得する。
In step S207, the
(1) Substitute a random value into the parameter of the
(2) Of the
(3) 30 personal IDs (estimated values) are acquired from the output layer of the
(4)推定された30個の個人IDのそれぞれを、学習データ32の対応する個人ID(ラベル)と比較することによって、評価用の変数である“スコア”を算出する。スコアは、個人IDの推定値がラベルと一致する件数であり、0〜30の値を取る。スコアが大きいほど、パラメータの質はよい。
(5)代入するパラメータの値を変化させたうえで、前記(1)〜(4)の処理を充分多い回数だけ繰り返す。
(6)スコアが最も大きくなるような、パラメータ(重みのベクトル)を特定する。
(4) The "score", which is a variable for evaluation, is calculated by comparing each of the estimated 30 individual IDs with the corresponding individual ID (label) of the learning
(5) After changing the value of the parameter to be substituted, the above processes (1) to (4) are repeated a sufficiently large number of times.
(6) Specify the parameter (weight vector) that gives the highest score.
第2に、学習処理部21は、特定したパラメータを特徴モデル33に代入したうえで、補助記憶装置15に記憶する。
ステップS207を経由する都度、特徴モデル33のパラメータの質は高まっていく。なお、2回目以降のステップS207において、学習処理部21は、学習データ32の最新のレコード群30個を使用してもよいし、過去の蓄積分を含むレコード群30個、60個、90個、・・・を使用してもよい。
Second, the
Each time the step S207 is passed, the quality of the parameters of the
ステップS208において、学習処理部21は、システムを終了するか否かを判断する。具体的には、学習処理部21は、ユーザが個人識別システムの処理を終了する旨の指示を、入力装置12を介して入力するのを受け付けた場合(ステップS208“Yes”)、学習処理手順を終了する。学習処理部21は、それ以外の場合(ステップS208“No”)、ステップS201に戻る。
In step S208, the
(識別処理手順)
図10は、識別処理手順のフローチャートである。識別処理手順を開始する前提として、補助記憶装置15は、パラメータが最適化された特徴モデル33を記憶しているものとする。いま、人6は、いつでもドア5を通過できる状況にいる。
ステップS301において、個人識別装置1の識別処理部22は、温度情報31を取得する。具体的には、識別処理部22は、予め設定された周期で特徴取得装置2から温度情報31を取得する。
(Identification processing procedure)
FIG. 10 is a flowchart of the identification processing procedure. As a premise for starting the identification processing procedure, it is assumed that the
In step S301, the
ステップS302において、識別処理部22は、人6が通過したか否かを判断する。具体的には、第1に、識別処理部22は、2つ以上の温度情報31が取得されると、図4の説明として前記した方法によって、人6がドア5を通過したか否かを判断する。
第2に、識別処理部22は、人6が通過した場合(ステップS302“Yes”)、人6が通過した時点を起点とする9時点の温度情報を保持してステップS303に進み、それ以外の場合(ステップS302“No”)、ステップS301に戻る。
In step S302, the
Secondly, when the
ステップS303において、識別処理部22は、温度情報を補間する。具体的には、識別処理部22は、図5及び図6の説明として前記した方法によって、ステップS301において取得した8×8の温度情報(図5の符号61)を、32×32の温度情報(図5の符号62)に補間する。
In step S303, the
ステップS304において、識別処理部22は、特徴モデル33に温度情報を入力する。具体的には、識別処理部22は、パラメータが最適化された特徴モデル33に対して、補間後の温度情報を入力する。ここで入力される温度情報は、図7の各フレーム位置f1〜f9に格納されているすべての温度(仮想ピクセル32×32×3×3個分)である。ここで入力される温度情報の表現型式は、学習データ32(図8)の温度情報のうち、レコード群1個分と同じである。
In step S304, the
ステップS305において、識別処理部22は、特徴モデル33の出力を取得する。具体的には、識別処理部22は、特徴モデル33が出力する個人IDを取得する。ラベルとして人6の外形又は状態を採用する場合、識別処理部22は、特徴モデル33が出力する外形又は状態を取得する。
In step S305, the
ステップS306において、識別処理部22は、個人IDを使用した処理を実行する。具体的には、識別処理部22は、前記した目的ごとに、以下の処理を行う。
〈1.警備〉識別処理部22は、個人IDが特定する人がドア5の通過を許可されていない場合、出力装置13、掲示装置3、又は、それ以外の任意の装置に対して、警報を出力する旨の指示を送信する。警報とは、不審人物がドア5を通過した旨のテキストデータ又は音声である。掲示装置3等は、警報をテキスト又は音声で出力する。
In step S306, the
<1. Security> When the person specified by the personal ID is not permitted to pass through the
〈2.見守り〉識別処理部22は、室内に設置されている掲示装置3に対して、その人6が室内でまず行うべき動作等を送信する。掲示装置3は、動作等をテキスト又は音声で出力する。
〈3.先回り〉識別処理部22は、室内に設置されている機器に接続されている掲示装置3に対して、当該機器に対してその人6が設定すべき情報を送信する。掲示装置3は、設定すべき情報を当該機器に出力する。
<2. Watching> The
<3. Advance> The
個人の特徴(ラベル)として人6の外形又は状態を採用する場合、識別処理部22は、外形又は状態に応じたメッセージを掲示装置に送信する。掲示装置3は、メッセージをテキスト又は音声で出力する。メッセージの例は、以下の通りである。
・外形“身長が高い”に対するメッセージとして“天井が低いのでご注意ください”
・状態“よそ見をしている”に対するメッセージとして“作業に集中してください”
When the outer shape or state of the
・ As a message for the outer shape "height", "please note that the ceiling is low"
・ "Please concentrate on the work" as a message for the state "looking away"
ステップS307において、識別処理部22は、システムを終了するか否かを判断する。具体的には、識別処理部22は、ユーザが個人識別システムの処理を終了する旨の指示を、入力装置12を介して入力するのを受け付けた場合(ステップS307“Yes”)、識別処理手順を終了する。識別処理部22は、それ以外の場合(ステップS307“No”)、ステップS301に戻る。
In step S307, the
(特徴取得装置の位置及び数)
前記では、温度情報31は、人6の斜め上方に設置された単一の特徴取得装置2から取得されている。しかしながら、個人識別システムは、複数の特徴取得装置2から同時に取得された温度情報を使用することによって、より高い精度で人6の特徴を識別することができる。2台目以降の特徴取得装置2は、通常、1台目の特徴取得装置2とは異なる位置に設置されてもよい。それらの位置は、人6の上方に限定されることなく、例えば、人6の腰の高さであってもよい。腰の高さから取得された温度情報は、人6の肉厚、歩容等を正確に示す。
(Position and number of feature acquisition devices)
In the above, the
〈第2の実施形態〉
(個人識別装置1の構成)
図11は、第2の実施形態における個人識別装置1の構成等を説明する図である。図1に比して、図11が異なる点は、生体情報取得装置9がネットワーク4を介して個人識別装置1に接続されていることである。生体情報取得装置9もまた、個人識別システムを構成する。個人識別システムは、複数の生体情報取得装置9を備えていてもよい。生体情報取得装置9が取得する情報の種類は、複数であってもよい。
<Second embodiment>
(Configuration of personal identification device 1)
FIG. 11 is a diagram for explaining the configuration and the like of the personal identification device 1 in the second embodiment. The difference between FIG. 11 and FIG. 11 is that the biometric information acquisition device 9 is connected to the personal identification device 1 via the
生体情報取得装置9は、ドア5付近の任意の位置に固定されていてもよいし、人6によって携帯又は装着されていてもよい。しかしながら、人6の手間を省く観点からは、生体情報取得装置9は、任意の位置に固定されていることが望ましい。なお、図11の特徴モデル33は、生体情報及び2次元の温度情報を入力とし、個人の特徴を出力とする関数である。
The biological information acquisition device 9 may be fixed at an arbitrary position near the
固定型の生体情報取得装置9の例として、体重計測装置、深度(肉厚)計測装置、におい検知装置、呼吸数計測装置等が挙げられる。携帯・装着型の生体情報取得装置9の例として、呼吸数測定装置、心拍数測定装置、血圧測定装置等が挙げられる。 Examples of the fixed biological information acquisition device 9 include a weight measuring device, a depth (thickness) measuring device, an odor detecting device, a respiratory rate measuring device, and the like. Examples of the portable / wearable biological information acquisition device 9 include a respiratory rate measuring device, a heart rate measuring device, a blood pressure measuring device, and the like.
(学習データ)
図12は、学習データ32を説明する図である。図8に比して、図12が異なる点は、生体情報欄が追加されていることである。例えば、生体情報“G11(#,#,…)”は、温度情報“S11(#,#,…)”が取得された時点t1において、生体情報取得装置9が取得した生体情報である。“(#,#,…)”には、例えば、体重、肉厚、におい(特定の化学的物質の濃度等)、呼吸数、脈拍数、血圧、・・・を示す値が並んでいる。
(Learning data)
FIG. 12 is a diagram illustrating the learning
人6がドア5を通過する僅かの時間内に、特徴取得装置2が温度を取得するタイミング(周期)に同期して、生体情報取得装置9がこれらの生体情報を取得することができない場合もある。仮に可能であっても、取得された生体情報は、殆ど同じである場合もある。このような場合、生体情報取得装置9は、例えば“G11(#,#,…)”のみを取得してもよい。すると、図12において“G11(#,#,…)、G12(#,#,…)、・・・、G19(#,#,…)”が記憶されている欄は、1つに統合され、そこには、“G11(#,#,…)”のみが記憶される。
In some cases, the biometric information acquisition device 9 cannot acquire these biometric information in synchronization with the timing (cycle) in which the feature acquisition device 2 acquires the temperature within a short time when the
(学習処理手順)
図13は、学習処理手順のフローチャートである。図9に比して、図13が異なる点は、ステップS201b及びS202bが追加されていることである。以降では、追加されたステップの処理のみを説明する。
(Learning process procedure)
FIG. 13 is a flowchart of the learning process procedure. The difference between FIG. 13 and FIG. 9 is that steps S201b and S202b have been added. In the following, only the processing of the added step will be described.
ステップS201bにおいて、個人識別装置1の学習処理部21は、生体情報を取得する。具体的には、学習処理部21は、予め設定された周期で生体情報取得装置9から生体情報を取得する。
ステップS202bにおいて、学習処理部21は、温度情報に生体情報を付す。具体的には、学習処理部21は、ステップS201において取得した温度情報に、ステップS201bにおいて取得した生体情報を関連付ける。
In step S201b, the
In step S202b, the
なお、ステップS205において、学習処理部21は、学習データ32(図12)の新たなレコード群を作成することになる。ステップS207の“第1”において、学習処理部21は、(2)の処理として、学習データ32のうちレコード群30個分の温度情報及び生体情報を特徴モデル33の入力層に入力する。
In step S205, the
(識別処理手順)
図14は、識別処理手順のフローチャートである。図10に比して、図14が異なる点は、ステップS301bが追加され、ステップS304の処理内容が変化していることである。以降では、追加された又は変化したステップの処理のみを説明する。
(Identification processing procedure)
FIG. 14 is a flowchart of the identification processing procedure. The difference between FIG. 14 and FIG. 14 is that step S301b has been added and the processing content of step S304 has changed. In the following, only the processing of added or changed steps will be described.
ステップS301bにおいて、個人識別装置1の識別処理部22は、生体情報を取得する。具体的には、識別処理部22は、予め設定された周期で生体情報取得装置9から生体情報を取得する。
ステップS304において、識別処理部22は、特徴モデル33に温度情報及び生体情報を入力する。具体的には、識別処理部22は、パラメータが最適化された特徴モデル33に対して、補間後の温度情報、及び、ステップS301bにおいて取得した生体情報を入力する。
In step S301b, the
In step S304, the
(入力とする情報)
第1の実施形態及び第2の実施形態を通じて、特徴取得装置2又は生体情報取得装置9が取得する情報は、個人のプライバシーを含まないものであれば、何でもよい。2次元の温度情報は、その典型例であるが、特徴取得装置2が取得する情報は、それ以外にも、例えば以下のような情報を含む。つまり、特徴取得装置2又は生体情報取得装置9が取得する情報は、任意の次元の情報である。
(Information to be input)
The information acquired by the feature acquisition device 2 or the biometric information acquisition device 9 through the first embodiment and the second embodiment may be anything as long as it does not include personal privacy. The two-dimensional temperature information is a typical example thereof, but the information acquired by the feature acquisition device 2 includes, for example, the following information. That is, the information acquired by the feature acquisition device 2 or the biological information acquisition device 9 is information of an arbitrary dimension.
・人6の身体の1又は複数の箇所から取得される、生体情報を含む任意の情報
・人6の身体の1又は複数の箇所と特徴取得装置2との間の距離
・床面の1又は複数の位置に掛かる人6の体重
・血圧、心拍数、脈拍数を含む人6の生体情報
・人6が発するにおい(分泌物等内の特定の化学的成分の濃度等)
-Arbitrary information including biometric information acquired from one or more parts of the body of the person 6-Distance between one or more parts of the body of the
(センサの種類)
特徴取得装置2及び生体情報取得装置9は、赤外線を検知する素子以外に、超音波センサ、距離センサを有していてもよい。さらに、生体情報取得装置9は、ミリ波を人に照射して心拍数を検知してもよいし、WiFi電波を人に照射して脈拍数及び呼吸数を検知してもよい。
(Type of sensor)
The feature acquisition device 2 and the biological information acquisition device 9 may have an ultrasonic sensor and a distance sensor in addition to the element that detects infrared rays. Further, the biological information acquisition device 9 may irradiate a person with millimeter waves to detect a heart rate, or may irradiate a person with a WiFi radio wave to detect a pulse rate and a respiratory rate.
(特徴取得装置2の位置等)
特徴取得装置2の本体が人6の頭部よりも上方にある必要はない。頭部よりも上方から見た温度情報が得られればよい。光軸が水平でも垂直でもなければよいことは、例えば、光ファイバー、ミラー等による導光を妨げるものではない。
(Position of feature acquisition device 2 etc.)
The main body of the feature acquisition device 2 does not have to be above the head of the
(本実施形態の効果)
本実施形態の個人識別システムの効果は以下の通りである。
(1)個人識別システムは、個人のプライバシーを守りやすい温度情報によって個人の特徴を識別することができる。
(2)個人識別システムは、身長、体格(肉厚)、歩容等を確実かつ安定的に視野内に捉えることができる。
(3)個人識別システムは、特徴モデルを使用するので、ユーザは、ニーズに応じて特徴モデルを学習することができる。
(4)個人識別システムは、ユーザのニーズに応じた学習データを作成することができる。
(5)個人識別システムは、ユーザのニーズに応じたタイミングで特徴モデルを学習することができる。
(Effect of this embodiment)
The effects of the personal identification system of this embodiment are as follows.
(1) The personal identification system can identify an individual's characteristics by temperature information that can easily protect the privacy of the individual.
(2) The personal identification system can reliably and stably capture the height, physique (thickness), gait, etc. in the field of view.
(3) Since the personal identification system uses the feature model, the user can learn the feature model according to the needs.
(4) The personal identification system can create learning data according to the needs of the user.
(5) The personal identification system can learn the feature model at a timing according to the needs of the user.
(6)個人識別システムは、見守り又は先回りの目的で、個人の識別結果を活用することができる。
(7)個人識別システムは、警備の目的で、個人の識別結果を活用することができる。
(8)個人識別システムは、複数の位置から取得した温度情報を根拠として、より高い精度で個人を識別することができる。
(9)個人識別システムは、生体情報を個人認識の根拠として使用することができる。
(10)個人識別システムは、個人の外形又は状態を識別することもできる。
(6) The personal identification system can utilize the personal identification result for the purpose of watching over or proactively.
(7) The personal identification system can utilize the personal identification result for the purpose of security.
(8) The personal identification system can identify an individual with higher accuracy based on the temperature information acquired from a plurality of positions.
(9) The personal identification system can use biometric information as a basis for personal recognition.
(10) The personal identification system can also identify the outer shape or state of an individual.
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
Further, each of the above-mentioned configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, control lines and information lines are shown as necessary for explanation, and not all control lines and information lines are shown in the product. In practice, it can be considered that almost all configurations are interconnected.
1 個人識別装置
2 特徴取得装置
3 掲示装置
4 ネットワーク
5 ドア
6 人(個人)
7 光軸
9 生体情報取得装置
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 通信装置
21 学習処理部
22 識別処理部
31 温度情報
32 学習データ
33 特徴モデル
1 Personal identification device 2 Feature acquisition device 3
7 Optical axis 9 Biometric
Claims (12)
前記取得した温度情報から個人の特徴を識別する個人識別装置と、
前記識別した個人の特徴を出力する提示装置と、
を備えることを特徴とする個人識別システム。 A feature acquisition device that acquires two-dimensional temperature information for an individual as a subject,
An individual identification device that identifies an individual's characteristics from the acquired temperature information,
A presentation device that outputs the characteristics of the identified individual, and
A personal identification system characterized by being equipped with.
個人の頭部より上方に設置され、
前記特徴取得装置と前記特徴取得装置の視野面の中心点とを結ぶ光軸は、
水平ではなく垂直でもないこと、
を特徴とする請求項1に記載の個人識別システム。 The feature acquisition device is
Installed above the individual's head,
The optical axis connecting the feature acquisition device and the center point of the visual field surface of the feature acquisition device is
Not horizontal or vertical,
The personal identification system according to claim 1.
前記視野面を通過する前記個人を被写体とする2次元の温度情報を入力とし、前記個人の特徴を出力とする特徴モデルを使用することによって、前記個人の特徴を識別すること、
を特徴とする請求項2に記載の個人識別システム。 The personal identification device is
Identifying the characteristics of an individual by using a feature model in which two-dimensional temperature information of the individual passing through the visual field surface as a subject is input and the characteristics of the individual are output.
The personal identification system according to claim 2.
前記2次元の温度情報及び既知の前記個人の特徴の複数の組合せである学習データを生成し、
前記学習データを使用して、前記特徴モデルのパラメータを最適化すること、
を特徴とする請求項3に記載の個人識別システム。 The personal identification device is
Generate learning data, which is a combination of the two-dimensional temperature information and a plurality of known characteristics of the individual.
Using the training data to optimize the parameters of the feature model,
The personal identification system according to claim 3.
前記パラメータを最適化するタイミングを決定すること、
を特徴とする請求項4に記載の個人識別システム。 The personal identification device is
Determining when to optimize the parameters,
The personal identification system according to claim 4.
識別結果に応じて、前記個人に関する見守り情報、又は、前記個人が使用する機器の操作に関する情報を出力すること、
を特徴とする請求項5に記載の個人識別システム。 The presentation device is
To output monitoring information about the individual or information about the operation of the device used by the individual, depending on the identification result.
The personal identification system according to claim 5.
前記個人が前記視野面を通過することを許可されていない場合、
任意の機器に対して警報を出力すること、
を特徴とする請求項6に記載の個人識別システム。 The presentation device is
If the individual is not allowed through the viewing plane
Outputting an alarm to any device,
The personal identification system according to claim 6.
複数存在し、
複数の前記特徴取得装置のそれぞれの位置は、
相互に異なり、
前記個人識別装置は、
複数の前記特徴取得装置が取得した温度情報から個人の特徴を識別すること、
を特徴とする請求項1に記載の個人識別システム。 The feature acquisition device is
There are multiple
The position of each of the plurality of feature acquisition devices is
Different from each other
The personal identification device is
Identifying an individual's characteristics from the temperature information acquired by the plurality of feature acquisition devices,
The personal identification system according to claim 1.
前記個人識別装置は、
前記特徴取得装置が取得した温度情報及び1又は複数の前記生体情報取得装置が取得した生体情報から個人の特徴を識別すること、
を特徴とする請求項1に記載の個人識別システム。 The device is provided with one or more biometric information acquisition devices for acquiring the biometric information of the individual.
The personal identification device is
Identifying an individual's characteristics from the temperature information acquired by the feature acquisition device and the biometric information acquired by one or more of the biometric information acquisition devices.
The personal identification system according to claim 1.
前記個人を一意に特定する情報、前記個人の外形、及び、前記個人の状態のうちの少なくとも1つであること、
を特徴とする請求項1に記載の個人識別システム。 The characteristics of the individual are
Information that uniquely identifies the individual, the external shape of the individual, and at least one of the individual's condition.
The personal identification system according to claim 1.
前記取得した任意の次元の情報から個人の特徴を識別する個人識別装置と、
前記識別した個人の特徴を出力する提示装置と、
を備えることを特徴とする個人識別システム。 A feature acquisition device that acquires information of any dimension with an individual as the subject,
An individual identification device that identifies an individual's characteristics from the acquired information of any dimension,
A presentation device that outputs the characteristics of the identified individual, and
A personal identification system characterized by being equipped with.
個人を被写体とする2次元の温度情報を取得する特徴取得装置と、
前記取得した温度情報から個人の特徴を識別する個人識別装置と、
前記識別した個人の特徴を出力する提示装置と、
して機能させることを特徴とする個人識別プログラム。 Computer,
A feature acquisition device that acquires two-dimensional temperature information for an individual as a subject,
An individual identification device that identifies an individual's characteristics from the acquired temperature information,
A presentation device that outputs the characteristics of the identified individual, and
A personal identification program characterized by the ability to function.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020072416A JP2021170176A (en) | 2020-04-14 | 2020-04-14 | Individual identification system and individual identification program |
PCT/JP2021/014650 WO2021210454A1 (en) | 2020-04-14 | 2021-04-06 | Individual identification system and individual identification program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020072416A JP2021170176A (en) | 2020-04-14 | 2020-04-14 | Individual identification system and individual identification program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021170176A true JP2021170176A (en) | 2021-10-28 |
Family
ID=78084851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020072416A Pending JP2021170176A (en) | 2020-04-14 | 2020-04-14 | Individual identification system and individual identification program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021170176A (en) |
WO (1) | WO2021210454A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142791A1 (en) * | 2022-12-26 | 2024-07-04 | パナソニックIpマネジメント株式会社 | Identification system, identification method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331799A (en) * | 2000-03-16 | 2001-11-30 | Toshiba Corp | Image processing apparatus and image processing method |
JP2005115460A (en) * | 2003-10-03 | 2005-04-28 | Toshiba Corp | Device for collating face, and passage controller |
JP2005115461A (en) * | 2003-10-03 | 2005-04-28 | Toshiba Corp | Electronic equipment controller using face matching |
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
-
2020
- 2020-04-14 JP JP2020072416A patent/JP2021170176A/en active Pending
-
2021
- 2021-04-06 WO PCT/JP2021/014650 patent/WO2021210454A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142791A1 (en) * | 2022-12-26 | 2024-07-04 | パナソニックIpマネジメント株式会社 | Identification system, identification method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2021210454A1 (en) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11037300B2 (en) | Monitoring system | |
Cardinaux et al. | Video based technology for ambient assisted living: A review of the literature | |
Zhang et al. | A survey on vision-based fall detection | |
Tyndall et al. | Occupancy estimation using a low-pixel count thermal imager | |
JP2023171650A (en) | Systems and methods for person identification and/or pain, fatigue, mood, and intent identification and quantification with privacy protection | |
JP6666488B2 (en) | Image extraction device | |
Zhong et al. | Multi-occupancy fall detection using non-invasive thermal vision sensor | |
Ghose et al. | UbiHeld: ubiquitous healthcare monitoring system for elderly and chronic patients | |
Fan et al. | Fall detection via human posture representation and support vector machine | |
US11216704B2 (en) | Recognition system using multimodality dataset | |
Muheidat et al. | In-home floor based sensor system-smart carpet-to facilitate healthy aging in place (AIP) | |
US12094313B2 (en) | Environment sensing for care systems | |
JP2020522828A (en) | Computer vision based surveillance system and method | |
US11734453B2 (en) | Privacy-preserving motion analysis | |
JP7566548B2 (en) | Image processing device, image processing method, and program | |
WO2021210454A1 (en) | Individual identification system and individual identification program | |
KR102544147B1 (en) | Image Analysis based One Person Fall Detection System and Method | |
JP5143780B2 (en) | Monitoring device and monitoring method | |
JP2021196741A (en) | Image processing device, image processing method and program | |
JP7362102B2 (en) | Information processing device and information processing program | |
Lumetzberger et al. | Fall detection | |
Ratthi et al. | Human height estimation using AI-assisted computer vision for intelligent video surveillance system | |
Pinitkan et al. | Abnormal activity detection and notification platform for real-time ad hoc network | |
JP2022117096A (en) | Image processing device, image processing method, and program | |
JP2020187389A (en) | Mobile body locus analysis apparatus, mobile body locus analysis program, and mobile body locus analysis method |