JPH07141506A - Information processing equipment - Google Patents
Information processing equipmentInfo
- Publication number
- JPH07141506A JPH07141506A JP5288097A JP28809793A JPH07141506A JP H07141506 A JPH07141506 A JP H07141506A JP 5288097 A JP5288097 A JP 5288097A JP 28809793 A JP28809793 A JP 28809793A JP H07141506 A JPH07141506 A JP H07141506A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- user
- processing apparatus
- input
- palm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Collating Specific Patterns (AREA)
Abstract
(57)【要約】
【目的】 利用するシステムの位置で顔画像入力を行う
だけで、利用者が自分の暗証コード(キャラクタパスワ
ード)をいちいち覚えておく必要なく本人の照合を可能
にし、更に他人にプロテクトをはずされることを防ぐこ
とを可能にする。
【構成】 スチルビデオカメラ8によって取り込まれた
顔画像は、画像処理ボード7の中のA/Dコンバータ2
1によりデジタル情報へと変換され特徴抽出回路22に
おくられ、ここではデジタル変換された顔画像情報は、
個人の特徴を最も良く表わすパラメータへと変換され
る。ついで照合回路23において、特徴抽出回路22で
作成したパラメータと予め登録してある特定利用者の特
徴パラメータとの照合(パターンマッチング)が行われ
一致すれば照合成功とする。
(57) [Summary] [Purpose] Just by inputting a face image at the position of the system to be used, the user can verify the person himself without having to remember his / her own personal identification code (character password). It is possible to prevent being unprotected. [Structure] The face image captured by the still video camera 8 is stored in the A / D converter 2 in the image processing board 7.
1 is converted into digital information and sent to the feature extraction circuit 22. Here, the digitally converted face image information is
It is converted into parameters that best represent the characteristics of the individual. Next, in the matching circuit 23, the parameters created by the characteristic extraction circuit 22 and the previously registered characteristic parameters of the specific user are matched (pattern matching). If they match, the matching is successful.
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えばファイルオープ
ン、ログインの際、プロテクト機能を有する情報処理装
置に関し、特にその利用者照合の入力方式、および処理
に特徴を有する情報処理装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus having a protection function at the time of opening a file or logging in, and more particularly to an information processing apparatus characterized by its user verification input method and processing. .
【0002】[0002]
【従来の技術】従来、コンピュータなどの情報処理装
置、Desk Top Publishingなどの文
書処理装置は、何人かの共有マシーンとして利用する事
が多く、これらを利用するユーザは、システムへのログ
イン、あるいは自分の作成したファイルに機密性を持た
せるため、キーボードなどのキャラクタ入力装置を用い
て、システムの利用者が決めた暗証コードをパスワード
として入力し、これを装置内に予め登録してあるコード
と照合することにより、利用者の認識を行っていた。2. Description of the Related Art Conventionally, an information processing device such as a computer or a document processing device such as a Desk Top Publishing is often used as a shared machine for some users. In order to make the file created by the system confidential, use a character input device such as a keyboard to enter the password code specified by the system user as a password, and check this against the code registered in advance in the device. By doing so, the user was recognized.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記従
来例のようなキャラクタ入力によるパスワード処理は、
システム利用者が自分で決めた暗証コードを忘れてしま
った場合、自分のファイルを開くこと、あるいは、シス
テムにログインすることができなくなり、暗証解読のた
め無駄な時間を割かなくてはならない事を余儀なくされ
ていた。また、本人以外でも、その人のパスワードを知
っていれば、ファイルをオープン、あるいは、システム
のログインを行なうことができるため、本当の意味での
プロテクトはなされているとは言えなかった。However, the password processing by character input as in the above-mentioned conventional example is
If the system user forgets the personal identification code that he / she has decided, he / she will be unable to open his / her file or log in to the system, and will have to waste time for decrypting the personal identification code. Had to be forced. Also, anyone other than the person can open the file or log in to the system if he / she knows the password of the person, so it cannot be said that the file is truly protected.
【0004】本発明の目的は以上のような問題を解消し
た情報処理装置を提供することにある。An object of the present invention is to provide an information processing apparatus which solves the above problems.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
本発明はシステム利用権を制限する保護機能を有する情
報処理装置において、システム利用者の特定箇所の画像
を入力する入力手段と、該入力手段から入力した入力画
像から利用者を照合する照合手段とを有することを特徴
とする。In order to achieve the above object, the present invention is an information processing apparatus having a protection function of limiting system usage rights, and an input means for inputting an image of a specific portion of a system user, and the input. It is characterized by having a matching means for matching the user from the input image input from the means.
【0006】[0006]
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。Embodiments of the present invention will now be described in detail with reference to the drawings.
【0007】〈実施例1〉図1は以下に示す実施例1〜
4にかかる情報処理装置全体のブロック図であり、1は
システムバス、2は装置全体を制御するCPU、3はプ
ログラムを記憶したり、ワーク領域として使われるメイ
ンメモリ、4はCPUを介さずにメモリとI/O間でデ
ータの転送を行うDMAの制御回路(Direct M
emoryAccess Controller以下D
MACと記す)、10はLAN9とのインターフェー
ス、11はROM、SRAM、RS232C等のI/O
類、13はハードディスク、14はフロッピーディス
ク、12はハードディスク13やフロッピーディスク1
4とのインターフェース、16は高解像度のプリンタ、
15はプリンタインターフェース、17はキーボードや
マウスのインターフェース、18はキーボード、19は
ポインティングデバイスであるマウス、9はローカルエ
リアネットワーク、5はVRAMを含むCRT制御回
路、6は表示データを表示するCRTモニタ、8は顔画
像を取り込むスチルビデオカメラ、7はビデオカメラ8
で取り込まれた顔画像情報を処理する画像処理ボード、
20は顔画像等の入力情報を処理する際の数値演算を専
用に行うための数値演算プロセッサであるDSP(Di
gital Signal Prosessor)、2
4は顔画像を取り込む時のリモートシャッターである。<Embodiment 1> FIG. 1 shows Embodiments 1 to 1 shown below.
4 is a block diagram of the entire information processing apparatus according to 4, wherein 1 is a system bus, 2 is a CPU that controls the entire apparatus, 3 is a main memory used as a work area for storing programs, and 4 is a CPU without a CPU. A DMA control circuit (Direct M) that transfers data between the memory and the I / O.
Below emoryAccessController D
(Denoted as MAC), 10 is an interface with LAN 9, 11 is I / O such as ROM, SRAM, RS232C, etc.
, 13 is a hard disk, 14 is a floppy disk, 12 is a hard disk 13 or a floppy disk 1
4 interface, 16 high resolution printer,
Reference numeral 15 is a printer interface, 17 is a keyboard or mouse interface, 18 is a keyboard, 19 is a mouse as a pointing device, 9 is a local area network, 5 is a CRT control circuit including VRAM, 6 is a CRT monitor for displaying display data, 8 is a still video camera for capturing face images, 7 is a video camera 8
Image processing board that processes face image information captured by
Reference numeral 20 denotes a DSP (Di) which is a numerical operation processor for exclusively performing numerical operation when processing input information such as a face image.
(Digital Signal Processor), 2
Reference numeral 4 denotes a remote shutter for capturing a face image.
【0008】図1において、CPU2はパワーオン後、
I/O11にあるROM内のプログラムに従ってシステ
ムチェック等の立ち上げ処理を行なった後、ハードディ
スク13内に格納されたOS等のプログラムをメインメ
モリに持ってくる。ユーザーのキーボード18やマウス
19からの指示により、アプリケーションプログラムが
動作する。CRT6への画面表示は、CRT制御回路5
内のビデオメモリにCPU2が直接データを書き込むこ
とで行なわれる。Referring to FIG. 1, after the CPU 2 is powered on,
After performing a start-up process such as a system check according to the program in the ROM of the I / O 11, the program such as the OS stored in the hard disk 13 is brought into the main memory. The application program operates according to an instruction from the user's keyboard 18 or mouse 19. The screen display on the CRT 6 is performed by the CRT control circuit 5
This is performed by the CPU 2 directly writing data to the internal video memory.
【0009】本発明の具体的な実施方法を図2に示した
顔画像処理ボード7のブロック図を用いて説明する。ま
た、ここでは、個人のファイルにプロテクトをかけられ
る文書処理装置に関する例を説明する。システム利用者
の顔画像を取り込む顔画像読み取り用のスチルビデオカ
メラ8によって、利用者はシステムを立ち上げた後に自
分のファイルを開くために、自分の顔を装置に認識させ
るための自画像を装置に採り込む。これについて図3を
用いて説明する。まず利用者27は、指定された位置に
着席し、CRT6の管面に対して正面をむく、このとき
の位置がばらばらでは正確な認識画像が採取できないの
で、あらかじめスチルビデオカメラ8には利用者27と
の測定距離を設定しておき、スチルビデオカメラ8に内
蔵した赤外線測距センサによりフォーカス、位置関係の
あった顔画像を撮る。このようにして、スチルビデオカ
メラ8より取り込まれた顔画像情報は25のケーブルラ
インを経て、情報処理装置の本体26に取り込まれる。A specific implementation method of the present invention will be described with reference to the block diagram of the face image processing board 7 shown in FIG. Further, here, an example of a document processing apparatus that can protect a personal file will be described. With the still video camera 8 for reading the face image of the system user, the user uses the self-portrait for causing the device to recognize his / her face in order to open his / her file after starting the system. Take in. This will be described with reference to FIG. First, the user 27 sits down at a designated position and peels the front of the tube surface of the CRT 6, and accurate recognition images cannot be collected if the positions are different at this time. A measurement distance to 27 is set in advance, and a face image having a focus and a positional relationship is photographed by an infrared distance measuring sensor incorporated in the still video camera 8. In this way, the face image information captured by the still video camera 8 is captured by the main body 26 of the information processing apparatus through the 25 cable lines.
【0010】図2の説明に戻ると、取り込まれた顔画像
は、画像処理ボード7の中のA/Dコンバータ21によ
りデジタル情報へと変換される。次にこれは、特徴抽出
回路22におくられ、ここではデジタル変換された顔画
像情報は、個人の特徴を最も良く表わすパラメータへと
変換される。ここで、個人情報パラメータを抽出する手
段は種々あるが、人それぞれ違う顔の特徴を簡単にとら
えるため、輪郭方向を顔画像パターンの特徴とする方法
を一例として図4を用いて説明する。Returning to the description of FIG. 2, the captured face image is converted into digital information by the A / D converter 21 in the image processing board 7. This is then sent to the feature extraction circuit 22, where the digitally converted face image information is converted into parameters that best represent the individual's features. Although there are various means for extracting the personal information parameter, a method of using the contour direction as the feature of the face image pattern will be described as an example with reference to FIG. 4 in order to easily recognize the features of the face different for each person.
【0011】まず、22の特徴抽出回路に入力されたデ
ジタル情報は、S30で1024×1024ドットの原
画像データ31へ変換される。次に、S32で顔画像の
輪郭を細かく判定するために、31の原画像データに画
像処理でよく行う輪郭抽出処理(特徴抽出手段)を施し
て情報量を減らしてイラスト画像33を得る。このイラ
スト画像33から、利用者の特徴を最もよく表わす32
×32のドットパターン36を作成する。このアルゴリ
ズムは種々あるが、ここでは、S34における33のイ
ラスト画像から特に、目、鼻、耳、眉の形、口、顔の輪
郭等の特徴に的を絞る特徴追跡処理を行うことにより、
利用者の特徴画像をつくることとする。そしてS35で
抽出したドットパターン36を個人情報を最もよく表わ
す特徴パラメータとする。このように個人情報の特徴抽
出回路22で得られた特徴パラメータは、23の個人情
報の特徴照合回路へと受け渡される。ここでは、回路2
2で得られた個人情報としてのパラメータを予め登録さ
れている特定利用者のパラメータと照合する作業を行
う。回路22で個人情報のパラメータができた事を示す
フラグが立つとCPU2は、ハードディスク13に予め
登録されている個人情報データ(標準パターン)を読み
出し、照合回路23に転送する。ここで特徴抽出回路2
2で作成したパラメータと予め登録してある特定利用者
の特徴パラメータとの照合(パターンマッチング)が行
われる。ここでも、照合方法は種々あるが、例えば、利
用者の特徴パラメータを未知パターンとして入力したと
き、この未知パターンと予め登録されている特定利用者
の特徴パラメータ(標準パターン)をそれぞれユークリ
ッド距離のような距離尺度を用いて計算し、その中で最
も距離が近いと判定された登録者に対し、その絶対距離
がある設定しきい値以内なら、その未知パターンを特定
利用者として判断する。ここで、本人であるという最終
判断は、利用者が開きたいファイルの管理者と特徴照合
回路23で判定された登録者の一致があればなされるこ
とになる。ここで上述した一連の流れは、ソフト的に行
なってもいいし、専用のハード回路を用いても良い。こ
れらの演算は、CPU2を用いても良いが、CPU2の
負担軽減と処理の高速化を図るには専用の数値演算プロ
セッサであるDSP20を用いても良い。First, the digital information input to the 22 feature extraction circuit is converted into original image data 31 of 1024 × 1024 dots in S30. Next, in S32, in order to finely determine the contour of the face image, the original image data 31 is subjected to contour extraction processing (feature extraction means) often performed in image processing to reduce the amount of information and obtain the illustration image 33. From this illustration image 33, the characteristics of the user are best represented 32.
A dot pattern 36 of × 32 is created. There are various algorithms, but here, by performing the feature tracking process focusing on the features such as the eyes, nose, ears, eyebrow shape, mouth, and face outlines from the illustration image 33 in S34,
We will create a user feature image. Then, the dot pattern 36 extracted in S35 is used as a characteristic parameter that best represents the personal information. The feature parameter thus obtained by the personal information feature extraction circuit 22 is transferred to the personal information feature matching circuit 23. Here, circuit 2
The parameter as the personal information obtained in 2 is collated with the parameter of the specific user registered in advance. When a flag indicating that the parameter of the personal information is created in the circuit 22 is set, the CPU 2 reads the personal information data (standard pattern) registered in advance in the hard disk 13 and transfers it to the matching circuit 23. Here, the feature extraction circuit 2
The parameter created in 2 and the characteristic parameter of the specific user registered in advance are compared (pattern matching). Again, there are various matching methods. For example, when the user's characteristic parameter is input as an unknown pattern, the unknown pattern and the characteristic parameter (standard pattern) of the specific user registered in advance are respectively referred to as Euclidean distances. If the absolute distance is within a set threshold value, the unknown pattern is determined as the specific user for the registrant whose distance is determined to be the shortest. Here, the final determination that the user is the original person is made if there is a match between the administrator of the file that the user wants to open and the registrant determined by the feature matching circuit 23. The series of steps described above may be performed by software or a dedicated hardware circuit may be used. The CPU 2 may be used for these calculations, but the DSP 20 which is a dedicated numerical calculation processor may be used to reduce the load on the CPU 2 and increase the processing speed.
【0012】次に、フローチャートに従って実施例の動
作を説明する。まず、パスワード処理の流れは図5に示
すように、S101でシステム利用者が自分のファイル
を開く要求を行う。S102で顔画像パスワードの登録
があるかを確認し、なければS103に進みファイルを
オープンする。もし、登録があればS104に進む。こ
こでは、顔画像入力をスチルビデオカメラ8を用いて行
う。S105で図2の説明で述べた処理がなされ、利用
者本人の照合が成功したらパスワード処理は終了し、S
103にすすむ。S105で本人の照合が取れなかった
場合はこの処理を繰り返すことになるが、S106で顔
画像入力を行った数をカウントして置き、S107であ
るカウント数(ここでは3回)以上の入力を行っても本
人の照合が取れなかった場合には、顔画像パスワード処
理ができなくなるようになっている。以上のような手順
でパスワード処理はすべて終了する。Next, the operation of the embodiment will be described with reference to the flow chart. First, in the flow of password processing, as shown in FIG. 5, the system user makes a request to open his or her file in S101. In S102, it is confirmed whether or not the face image password is registered. If not, the process proceeds to S103 to open the file. If registered, the process proceeds to S104. Here, the face image is input using the still video camera 8. In S105, the process described in the description of FIG. 2 is performed, and if the verification of the user is successful, the password process ends, and S
Proceed to 103. If the person cannot be collated in S105, this process is repeated. However, the number of face image inputs is counted and stored in S106, and the number of inputs equal to or more than the count number (here, three times) in S107 is counted. If the person cannot be verified even if he / she goes, the face image password processing cannot be performed. All the password processing is completed by the above procedure.
【0013】〈実施例2〉ここで、図2の照合回路23
における照合方法をニューラルネットワークに置き換え
た他の実施例をあげる。先ず、ニューラルネットにパー
セプトロンと呼ばれる階層構造を用いた例を図6を用い
て説明する。パーセプトロンは、人間の脳細胞中のニュ
ーロンを模した構造で、入力層109、第1中間層11
0、第2中間層111、出力層112からなり、それぞ
れの層はニューロンにあたるいくつかのユニット117
からなる。これらのユニットは違う層間のユニット同士
結合している。この層間の結合には重みずけがなされて
おり、この重みを変えることにより、ユニットの結合の
仕方を変えることができる。ここでは簡単に、この重み
の変更方法について、バックプロパゲーション法(誤差
逆伝搬法)という学習法を用いて説明する。図6の入力
層109には、実施例1で説明した顔画像の32×32
(1024ユニット)の2値パターン108を特徴パラ
メータとして入力する。入力層のネットワーク構造は、
顔画像の二次元の特徴パターンを効率よくとらえるため
に、109のような入力層の縦32パターン、および横
32パターンの各バンドを中間層への入力としてある。
この信号は、第1中間層110、第2中間層111を経
て特徴パターンの分析がなされ、結果は出力層112へ
と出力される。出力層でのユニット数Nは、登録できる
利用者数(2N 人)に対応する。出力信号113は、認
識利用者信号として出力され、これを正解信号としての
教師信号114と比較する事により学習誤差を計算す
る。この誤差が小さくなるように重み修正116をその
都度行なう。このように、登録される人数分の特徴パラ
メータを何回も入力し、誤差が小さくなるまで(学習が
収束するまで)繰り返し行なう。<Second Embodiment> Here, the matching circuit 23 of FIG.
Another embodiment in which the matching method in is replaced with a neural network will be described. First, an example using a hierarchical structure called a perceptron for the neural network will be described with reference to FIG. The perceptron has a structure imitating a neuron in a human brain cell, and has an input layer 109 and a first intermediate layer 11
0, a second intermediate layer 111, and an output layer 112, each of which is a unit 117 which is a neuron.
Consists of. These units are connected to each other between different layers. A weight is given to the coupling between the layers, and the way of coupling the units can be changed by changing the weight. Here, this weight changing method will be briefly described by using a learning method called a back propagation method (error back propagation method). In the input layer 109 of FIG. 6, 32 × 32 of the face image described in the first embodiment is displayed.
The binary pattern 108 of (1024 units) is input as a characteristic parameter. The network structure of the input layer is
In order to efficiently capture the two-dimensional characteristic pattern of the face image, each band of 32 vertical patterns and 32 horizontal patterns of the input layer such as 109 is input to the intermediate layer.
The characteristic pattern of this signal is analyzed through the first intermediate layer 110 and the second intermediate layer 111, and the result is output to the output layer 112. The number N of units in the output layer corresponds to the number of users (2 N ) who can be registered. The output signal 113 is output as a recognition user signal, and the learning error is calculated by comparing this with the teacher signal 114 as a correct answer signal. The weight correction 116 is performed each time so that this error becomes smaller. In this way, the characteristic parameters for the number of people to be registered are input many times and repeated until the error becomes small (until the learning converges).
【0014】このようにして学習が収束したニューラル
ネットのシステムに対して、システム利用者は、図2の
スチルビデオカメラ8から顔画像入力を行なう。この顔
画像は、未知パターンとして画像処理ボード7(ここで
は、ニューラルネットシステムにあたる。)に入力さ
れ、A/Dコンバータ21でA/D変換された後特徴抽
出回路22で顔画像の特徴パターンに変換される。この
顔画像の特徴パターンを上記の学習が収束したニューラ
ルネットに入力することにより利用者識別処理が行なわ
れる。このようにして識別された利用者と開きたいファ
イルの管理者が一致した場合、顔画像パスワードの本人
照合がなされたことになり、ファイルを開くことができ
る。With respect to the neural network system in which learning has converged in this way, the system user inputs a face image from the still video camera 8 shown in FIG. This face image is input as an unknown pattern to the image processing board 7 (here, it corresponds to a neural network system), A / D converted by the A / D converter 21, and then converted into a feature pattern of the face image by the feature extraction circuit 22. To be converted. The user identification process is performed by inputting the feature pattern of the face image to the neural network to which the above learning has converged. When the user thus identified matches the administrator of the file to be opened, the face image password has been verified, and the file can be opened.
【0015】以上述べたように、顔画像による本人照合
にニューラルネットを用いることによって、本人の顔画
像と似ている者が利用しても、ニューラルネットの学習
による顔画像パターンの領域分け能力によって、このシ
ステムの識別能力がアップするというこの実施例特有の
効果もえられる。As described above, by using the neural network for the person matching by the face image, even if a person who is similar to the person's face image is used, it is possible to obtain the area of the face image pattern by the learning of the neural network. Also, an effect peculiar to this embodiment that the identification ability of this system is improved can be obtained.
【0016】〈実施例3〉次に、従来のキャラクタパス
ワード入力と本発明の実施例1,2における顔画像入力
との二重化を図った場合の実施例を図7のフローチャー
トを用いて説明する。S118でシステム利用者が自分
のファイルを開く要求を行う。S119でキャラクタパ
スワードの登録があるかを確認し、あればS120に進
み自分の決めた暗証コードをキーボード18から入力す
る。S121で照合が取れなければS119に戻りこれ
を繰り返す。照合が取れれば、S123に進みファイル
をオープンする。S119でキャラクタパスワードの登
録がない、あるいは、S122でパスワードの二重化が
なされている場合はS124に進む。ここでは、顔画像
入力をスチルビデオカメラ8を用いて行う。S125で
図2の説明で述べたような処理、あるいは、実施例2で
述べたような処理がなされ、利用者本人の照合が成功し
たらパスワード処理は終了しS123でファイルをオー
プンする。S125で本人の照合が取れなかった場合は
この処理を繰り返すことになるが、S126で顔画像入
力を行った数をカウントして置き、S127であるカウ
ント数(ここでは3回)以上の画像入力を行っても本人
の照合が取れなかった場合には、顔画像パスワード処理
ができなくなり、再びS119に戻る。二重化されたパ
スワード入力処理は、以上のように行なわれる。<Third Embodiment> Next, an embodiment in which the conventional character password input and the face image input in the first and second embodiments of the present invention are duplicated will be described with reference to the flowchart of FIG. In S118, the system user makes a request to open his or her file. In S119, it is confirmed whether or not the character password is registered, and if there is, the process proceeds to S120 and the personal identification code determined by the user is input from the keyboard 18. If the collation cannot be obtained in S121, the process returns to S119 and is repeated. If the collation is obtained, the process proceeds to S123 and the file is opened. If the character password is not registered in S119 or the password is duplicated in S122, the process proceeds to S124. Here, the face image is input using the still video camera 8. If the process described in the explanation of FIG. 2 or the process described in the second embodiment is performed in S125 and the verification of the user is successful, the password process ends and the file is opened in S123. If the person cannot be collated in S125, this process is repeated. However, the number of face image inputs is counted and set in S126, and the image input is performed at S127 or more (here, three times). If the person cannot be verified even after performing, the face image password processing cannot be performed, and the process returns to S119. The duplicated password input process is performed as described above.
【0017】以上述べたように、パスワード処理を二重
化することにより、一つのパスワード入力の時以上に機
密性を高めることができるというこの実施例特有の効果
もえられる。As described above, by duplicating the password processing, it is possible to obtain the effect peculiar to this embodiment that the confidentiality can be enhanced more than when one password is input.
【0018】〈実施例4〉顔画像パスワードにとって一
番の問題点は、人間の顔(人相)はいつも一定だとは限
らない点である。つまり、太って丸くなっている時、や
せて細くなっている時、髪が伸びている時、髪をきった
ばかりの時、メガネを着用している時とそうではない時
など色々考えられる、このように異なった状態を、ある
一定時期のデータベースで認識させようとしても認識率
の向上は望めない。そこで本実施例は、ある一定期間ご
とに照合用のデータベースを更新していくシステムにつ
いて図8を用いて説明する。図8において顔画像を入力
し、照合するまでのフローは前実施例で説明した通りの
ものであるが、本実施例では、S127で3回以上照合
が取れないことが続いた時は、システム利用者の顔画像
が時期差により変化したことによって、認識率の低下が
起きていると判断を下す。このときS130でデータベ
ースの更新をするかどうか判断することになる。つま
り、元々照合用のデータベースには、登録年月日のよう
な時期情報を含むフォーマットにしておく。システム利
用者は、ログインの度にこの情報を現在の年月日と比較
し、あるしきい値より時期差が大きくなった時にデータ
ベースのアップデイトを行うように処理を行なうように
なる。データベースの更新の期間は、ユーザの生活スタ
イルによっても変化するので(あまり風貌が変わらない
人が多い集団と、そうでない集団によっても違う。)シ
ステム管理者が責任を持って決定することになる。この
ようにして、S130でデータベース変更の決定がなさ
れた場合にはS131に行き、ここで顔画像、登録年月
日の再登録を行ない次のパスワード処理のための新しい
データベースが作成され処理を終了する。以上述べたよ
うに、データベースの再変更を時期差をみてすることに
より、認識率の向上によるパスワード処理の迅速かとい
う実施例特有の効果も得られる。<Embodiment 4> The biggest problem with the face image password is that the human face (personal appearance) is not always constant. In other words, when you are fat and round, when you are thin and thin, when your hair is growing, when you have just cut your hair, when you are wearing glasses and when you are not. Even if the database is made to recognize different states for a certain period of time, the recognition rate cannot be improved. Therefore, in the present embodiment, a system for updating the collation database every certain period will be described with reference to FIG. In FIG. 8, the flow from inputting the face image to matching is the same as that described in the previous embodiment. However, in this embodiment, if it is determined in S127 that the matching cannot be performed three times or more, the system It is determined that the recognition rate has decreased due to the change in the face image of the user due to the time difference. At this time, it is determined in S130 whether or not the database is updated. That is, the collation database is originally in a format including time information such as the registration date. The system user compares this information with the current date every time he logs in, and performs processing to update the database when the time difference becomes larger than a certain threshold value. The period for updating the database changes depending on the lifestyle of the user (it differs depending on the group with a lot of people who don't change their appearances and the group that doesn't change it very much). In this way, when the database change is determined in S130, the process goes to S131, where the face image and the registration date are re-registered, a new database for the next password process is created, and the process ends. To do. As described above, by observing the timing of re-change of the database, it is possible to obtain the effect peculiar to the embodiment, that is, whether the password processing is speedy due to the improvement of the recognition rate.
【0019】さらにシステム利用者が決められたデータ
ベース更新期間内に、例えば髪を切ったり、容姿がやせ
たり太ったりして、認識率の低下を引き起こすくらいに
変化したと思われる場合や、認識率があまり上がらず、
データベースを再登録しなければならないと判断した時
に、システム管理者の許可をもらってデータベースの再
登録ができるようにすることもできる。このときシステ
ム利用者は、システム管理者から教えられた所定のキャ
ラクタパスワードを入力することにより、もし一致があ
れば、S131の再登録処理を行ない、データベースの
再登録を実行できるようにすることができる。これによ
り、利用者の容姿変化による認識率の低下を軽減でき、
操作性を更に向上することができる。Further, when it is considered that the system user has changed within a predetermined database update period, for example, cutting hair, thinning or thickening his / her appearance, causing a decrease in recognition rate, or a recognition rate. Does not rise much,
When it is decided that the database should be re-registered, it is possible to re-register the database with the permission of the system administrator. At this time, the system user can enter the predetermined character password provided by the system administrator, and if there is a match, perform the re-registration process in S131 so that the database can be re-registered. it can. This reduces the reduction in recognition rate due to changes in the appearance of the user,
The operability can be further improved.
【0020】〈実施例5〉図9は以下に示す各実施例に
かかる情報処理装置全体のブロック図であり、光学式読
取り装置80、画像処理ボード70以外は図1と同様で
ある。<Embodiment 5> FIG. 9 is a block diagram of the entire information processing apparatus according to each of the following embodiments, and is the same as FIG. 1 except for the optical reader 80 and the image processing board 70.
【0021】本実施例の具体的な処理方法を図10に示
した画像処理ボード70のブロック図を用いて説明す
る。また、ここでは、個人のファイルにプロテクトをか
けられる文書処理装置に関する例を説明する。80はシ
ステム利用者の手相を取り込む光学式読取り装置で、利
用者はシステムを立ち上げた後に、自分のファイルを開
くために、まず指定された方向の手を光学式読み取り装
置80のガラス面に乗せる。このとき、手のひらを乗せ
る位置の位置合わせが必要であるが、これについては図
15に示したような光学式読み取り装置を提案する。2
00は装置本体、201はガラス面、202は手のひら
の位置決め枠、204はガラス面201上の中心の位置
を決めるコアマークである。このコアマーク204に、
自分の手のひらの重心(コア)を206のように合わせ
る。A specific processing method of this embodiment will be described with reference to the block diagram of the image processing board 70 shown in FIG. Further, here, an example of a document processing apparatus that can protect a personal file will be described. Reference numeral 80 is an optical reader that captures the palm of the system user. After the user starts the system, the user first opens the file in the designated direction on the glass surface of the optical reader 80. Put on. At this time, it is necessary to align the position where the palm is placed, and for this, an optical reading device as shown in FIG. 15 is proposed. Two
00 is the main body of the apparatus, 201 is a glass surface, 202 is a palm positioning frame, and 204 is a core mark that determines the center position on the glass surface 201. On this core mark 204,
Align the center of gravity (core) of your palm like 206.
【0022】次に光学式読み取り装置80はスキャニン
グを行い手相のしわ(隆線)の形状を読み取っていく。
このようにして、光学式読み取り装置80より取り込ま
れた手相は、画像処理ボード70の中のA/Dコンバー
タ21によりデジタル情報へと変換される。次に、22
Aは特徴抽出回路で、ここではデジタル変換された手相
情報は、個人の特徴を最も良く表わすパラメータへと変
換される。ここで、個人情報パラメータを抽出する手段
は種々あるが、複雑な紋様の特徴を簡単にとられるた
め、隆線方向を手相パターンの特徴とする方法を一例と
して図11を用いて説明する。まず、22Aの個人情報
の特徴抽出回路に入力されたデジタル情報は、S300
で256×256ドットの原画像データ350へ変換さ
れる。次に、手相の隆線の流れを細かく判定するため
に、S310で8×8ドットの領域を一つの処理領域と
して分割し、9種類の方向軸に対する投影を用いること
によって、最適な隆線方向を1つ選択する。ここで、8
×8ドットの単位領域内では、各画素は9種類の方向コ
ードを持ち、1番目から8番目は0とπとの間の8方向
に対応し、9番目は隆線方向が存在しないコードとし
た。このようにして、S320で32×32ドットの方
向データ(360)が得られる。次に、方向データ化さ
れた隆線形状の特徴を損なうことなく追跡し、手相の特
徴パターンを抽出するために隆線追跡処理S330を行
なう。ここでの処理は、方向データの特殊性をある程度
排除し、隆線の細かい形状の特徴を重視し過ぎないよう
に、マクロ的に追跡することを試みる。まず、円弧或い
は方形形状になっている手のひらの重心を示すコアを手
相照合の基準点として求める。次に、このコアを追跡の
対象点とし、決められた規則に従い、この対象点の周り
の方向コードとの関係で隆線を追跡して行く。このよう
にして、手相の32×32ドット方向パターン360
は、16×16ドットの2値の特徴パターン370にS
340で変換される。これを特徴よく表わす特徴パラメ
ータとする。このように特徴抽出回路22Aで得られた
特徴パラメータは、23Aの特徴照合回路へと受け渡さ
れる。ここでは、回路22Aで得られた特徴としてのパ
ラメータを予め登録されている特定利用者のパラメータ
と照合する作業を行う。回路22Aで特徴のパラメータ
が抽出できた事を示すフラグが立つとCPU2は、ハー
ドディスク13に予め登録されている個人情報データ
(標準パターン)を読み出し、特徴照合回路23Aに転
送する。ここで回路22Aで作成したパラメータと予め
登録してある特定利用者の特徴パラメータとの照合(パ
ターンマッチング)が行われる。ここでも、照合方法は
種々あるが、例えば、利用者の特徴パラメータが未知パ
ターンとして入力したとき、この未知パターンと予め登
録されている特定利用者の特徴パラメータ(標準パター
ン)をそれぞれユークリッド距離のような距離尺度を用
いて計算し、その中で最も距離が近いと判定された登録
者に対し、その絶対距離がある設定しきい値以内なら、
その登録者を判定される利用者として判断する。ここ
で、本人であるという最終判断は、利用者が開きたいフ
ァイルの管理者と特徴照合回路23Aで判定された登録
者の一致があればなされることになる。ここで上述した
一連の流れは、ソフト的に行なってもいいし、専用のハ
ード回路を用いても良い。これらの演算は、CPU2を
用いても良いが、CPU2の負担軽減と処理の高速化を
図るには専用の数値演算プロセッサであるDSP20を
用いても良い。Next, the optical reader 80 scans and reads the shape of the wrinkles (ridges) of the palm.
In this way, the hand phase captured by the optical reading device 80 is converted into digital information by the A / D converter 21 in the image processing board 70. Then 22
A is a feature extraction circuit, in which the digitally converted palm information is converted into parameters that best represent individual features. Here, there are various means for extracting the personal information parameter, but since a complicated pattern feature can be easily taken, a method of using the ridge direction as the feature of the palm pattern will be described as an example with reference to FIG. First, the digital information input to the personal information feature extraction circuit of 22A is S300.
Is converted into the original image data 350 of 256 × 256 dots. Next, in order to finely determine the flow of palm ridges, the region of 8 × 8 dots is divided as one processing region in S310, and the projection with respect to nine kinds of direction axes is used to determine the optimal ridge direction. Select one. Where 8
Within the unit area of × 8 dots, each pixel has 9 kinds of direction codes, the 1st to 8th correspond to 8 directions between 0 and π, and the 9th is a code with no ridge direction. did. In this way, the direction data (360) of 32 × 32 dots is obtained in S320. Next, a ridge tracking process S330 is performed in order to track the ridge-shaped features that have been turned into direction data without impairing them and to extract a palm feature pattern. In the process here, the peculiarities of the direction data are eliminated to some extent, and macro-tracking is performed so as not to give too much importance to the features of the fine ridge shape. First, a core showing the center of gravity of the palm, which has an arc shape or a rectangular shape, is obtained as a reference point for palm matching. Next, this core is set as a tracking target point, and a ridge line is tracked according to a predetermined rule in relation to the direction code around this target point. In this way, the palm pattern 32 × 32 dot direction pattern 360
Is S in the binary characteristic pattern 370 of 16 × 16 dots.
Converted at 340. This is a characteristic parameter that expresses the characteristics well. The feature parameter thus obtained by the feature extraction circuit 22A is transferred to the feature matching circuit 23A. Here, the parameter as the characteristic obtained by the circuit 22A is checked against the parameter of the specific user registered in advance. When a flag indicating that the characteristic parameter has been extracted by the circuit 22A is set, the CPU 2 reads the personal information data (standard pattern) registered in advance in the hard disk 13 and transfers it to the characteristic matching circuit 23A. Here, the parameter created by the circuit 22A and the characteristic parameter of the specific user registered in advance are compared (pattern matching). Again, there are various matching methods. For example, when the user's characteristic parameter is input as an unknown pattern, the unknown pattern and the characteristic parameter (standard pattern) of a specific user registered in advance are respectively referred to as Euclidean distances. If the absolute distance is within a certain set threshold for a registrant who is calculated to have the shortest distance among them,
The registrant is judged as the user to be judged. Here, the final determination that the user is the original person is made if there is a match between the administrator of the file that the user wants to open and the registrant determined by the characteristic matching circuit 23A. The series of steps described above may be performed by software or a dedicated hardware circuit may be used. The CPU 2 may be used for these calculations, but the DSP 20 which is a dedicated numerical calculation processor may be used to reduce the load on the CPU 2 and increase the processing speed.
【0023】次に、図12に示すフローチャートに従っ
て本実施例の動作を説明するが、S104Aにおいて手
相入力を光学式読取り装置80を用いて行う以外は図5
と同様である。Next, the operation of the present embodiment will be described with reference to the flow chart shown in FIG. 12, except that the manual phase input is performed by using the optical reader 80 in S104A.
Is the same as.
【0024】〈実施例6〉ここで、図13を用いて、図
10の個人情報照合回路23における照合方法をニュー
ラルネットワークに置き換えた実施例をあげるが、入力
層109に入力する特徴パラメータが手相の16×16
(256ユニット)の2値パターン108Aである以外
は図6と同様である。入力層のネットワーク構造は、指
紋の二次元の特徴パターンを効率よくとらえるために、
109のような入力層の縦16パターン、および横16
パターンの各バンドを中間層への入力としてある。この
信号は、第1中間層110、第2中間層111を経て特
徴パターンの分析がなされ、結果は出力層112へと出
力される。出力層でのユニット数Nは、登録できる利用
者数(2N 人)に対応する。出力信号113は、認識利
用者信号として出力され、これを正解信号としての教師
信号114と比較する事により学習誤差を計算する。こ
の誤差が小さくなるように重み修正116をその都度行
なう。このように、登録される人数分の特徴パラメータ
を何回も入力し、誤差が小さくなるまで(学習が収束す
るまで)繰り返し行なう。<Embodiment 6> An embodiment in which the matching method in the personal information matching circuit 23 of FIG. 10 is replaced with a neural network will be described with reference to FIG. 16 × 16
It is the same as FIG. 6 except that it is a binary pattern 108A of (256 units). The network structure of the input layer is designed to efficiently capture the two-dimensional fingerprint feature pattern.
16 vertical patterns of the input layer such as 109, and 16 horizontal patterns
Each band of the pattern is as an input to the hidden layer. The characteristic pattern of this signal is analyzed through the first intermediate layer 110 and the second intermediate layer 111, and the result is output to the output layer 112. The number N of units in the output layer corresponds to the number of users (2 N ) who can be registered. The output signal 113 is output as a recognition user signal, and the learning error is calculated by comparing this with the teacher signal 114 as a correct answer signal. The weight correction 116 is performed each time so that this error becomes smaller. In this way, the characteristic parameters for the number of people to be registered are input many times and repeated until the error becomes small (until the learning converges).
【0025】このようにして学習が収束したニューラル
ネットのシステムに対して、システム利用者は、光学式
読取り装置8から手相入力を行なう。この手相は、未知
パターンとして画像処理ボード7(ここでは、ニューラ
ルネットシステムにあたる。)に入力され、A/Dコン
バータ21でA/D変換された後特徴抽出回路22で手
相の特徴パターンに変換される。この手相の特徴パター
ンを上記の学習が収束したニューラルネットに入力する
ことにより利用者識別処理が行なわれる。このようにし
て識別された利用者と開きたいファイルの管理者が一致
した場合、手相パスワードの本人照合がなされたことに
なり、ファイルを開くことができる。In the neural network system in which the learning is converged in this way, the system user inputs a manual phase from the optical reader 8. This phase is input to the image processing board 7 (here, it corresponds to a neural network system) as an unknown pattern, A / D converted by the A / D converter 21, and then converted into a phase characteristic pattern of the phase by the feature extraction circuit 22. It The user identification process is performed by inputting this palm feature pattern into the neural network to which the learning has converged. When the user thus identified matches the administrator of the file to be opened, it means that the personal identification of the palm password has been performed, and the file can be opened.
【0026】以上述べたように、手相による本人照合に
ニューラルネットを用いることによって、本人の手相と
似ている者が利用しても、ニューラルネットの学習によ
る手相パターンの領域分け能力によって、このシステム
の識別能力がアップするというこの実施例特有の効果も
えられる。As described above, by using the neural network for the personal identification by the palm, even if a person who is similar to the palm of the principal uses it, the system can be obtained by the area dividing ability of the palm pattern by learning of the neural network. An effect peculiar to this embodiment is also obtained in that the discrimination ability of is improved.
【0027】〈実施例7〉次に、従来のキャラクタパス
ワード入力と本発明の実施例5,6における手相入力と
の二重化を図った場合の実施例を図14のフローチャー
トを用いて説明するが、S124Aでの光学式読取り装
置80による手相入力以外は図7と同様である。<Embodiment 7> Next, an embodiment in which the conventional character password input and the palm input in Embodiments 5 and 6 of the present invention are duplicated will be described with reference to the flowchart of FIG. 7 is the same as that of FIG. 7 except the manual input by the optical reader 80 in S124A.
【0028】以上述べたように、パスワード処理を二重
化することにより、一つのパスワード入力の時以上に機
密性を高めることができるというこの実施例特有の効果
もえられる。As described above, by duplicating the password processing, it is possible to obtain the effect peculiar to this embodiment that the confidentiality can be enhanced more than when one password is input.
【0029】〈実施例8〉上述した実施例で個人情報と
して手相を用いてきたが、システムを利用する登録者が
増えることにより、個人照合が困難になる可能性が出て
くる。そこで、本実施例では、さらに照合率を向上させ
るために、万人不動の個人情報である、指紋情報を取り
入れ、手相情報と二重化した個人情報を1データベース
としてパックすることの実施例をあげる。<Embodiment 8> Although palms have been used as personal information in the above-mentioned embodiments, the number of registrants using the system may increase the possibility of individual verification. Therefore, in the present embodiment, in order to further improve the collation rate, an example will be given in which fingerprint information, which is personal information that is immovable to all people, is incorporated and personal information duplicated with palm information is packed as one database.
【0030】ここで指紋の採取方法について簡単に説明
すると、図15の光学式読取り装置200のガラス面2
01に、スタンプインクを付着させた指を押し付けるこ
とによりガラス面に指紋を付着させる。ここで指紋をつ
ける位置決めであるが、手相の時と同様に、指紋位置決
め枠203内のコア204に指紋の中心としてのコアを
合わせる。ここで、光学式読取り装置のカバーを下ろし
スイッチをオンすることで指紋の読取りが開始される。
以上のようにして指紋入力が行なわれる。また、指紋が
付着して汚れたガラス面は次の人のために綺麗にふきと
っておけばよい。A brief description will be given of a method of collecting fingerprints, which will be described below with reference to the glass surface 2 of the optical reader 200 shown in FIG.
Fingerprints are attached to the glass surface by pressing a finger on which the stamp ink is attached to 01. Here, the fingerprint is positioned, but the core as the center of the fingerprint is aligned with the core 204 in the fingerprint positioning frame 203 as in the case of the palm. Here, the reading of the fingerprint is started by lowering the cover of the optical reading device and turning on the switch.
Fingerprint input is performed as described above. Also, the glass surface that is dirty due to fingerprints should be wiped clean for the next person.
【0031】この指紋による照合方法は、前述した手相
照合と同じアルゴリズムを用いて16×16の特徴パタ
ーンを作ることになる。この指紋による特徴パターンと
手相による特徴パターンを組み合わせたデータベースを
作成することによる、個人的特徴の判別が手相だけでは
つきずらいときにでも区別が容易になり照合率も向上す
る。この方法は、システム利用者の数が多い時には特に
有利になるというこの実施例特有の効果も得られる。In this fingerprint collation method, a 16 × 16 characteristic pattern is created by using the same algorithm as the above-mentioned palm phase collation. By creating a database in which the feature pattern of the fingerprint and the feature pattern of the palm are combined, the distinction becomes easy and the matching rate is improved even when the discrimination of the personal feature is difficult only by the palm. This method also has an effect peculiar to this embodiment, which is particularly advantageous when the number of system users is large.
【0032】〈実施例9〉上述した実施例で個人情報と
して手相を用いてきたが、システムを利用する登録者が
増えることにより、個人照合が困難になる可能性が出て
くる。ここで、本実施例では、更に照合率を向上させる
ために、利用者の手の大きさを測定し、これと手相を二
重化した個人情報を1データベースとしてパックするこ
との実施例をあげる。<Embodiment 9> Although palm has been used as personal information in the above-mentioned embodiment, personal verification may become difficult as the number of registrants using the system increases. Here, in the present embodiment, in order to further improve the collation rate, an example in which the size of the user's hand is measured and personal information in which the size of the hand is duplicated is packed as one database will be given.
【0033】次に、手の大きさをどのように認知するか
について図16を用いて説明する。光学式読み取り装置
により読み取られた画像は215のようになり、手を乗
せてていない部分は黒で、それ以外は白黒のドットにな
る。ここで手の大きさは、手のひらのコア216(これ
は図15のコア204と一致させる。)から5本の指ま
での距離210,211,212,213,214で定
義することにする。つまり、コアから白ドットまでの距
離を計算し、一番大きい5ポイントを抽出すれば手の大
きさが決められることが分かる。この5つの距離を手の
大きさによる特徴パターンとする。Next, how to recognize the size of the hand will be described with reference to FIG. The image read by the optical reading device looks like 215, and black is formed in the portion where the hand is not placed, and black and white in the other portions. Here, the size of the hand is defined by the distances 210, 211, 212, 213 and 214 from the palm core 216 (which matches the core 204 in FIG. 15) to the five fingers. That is, it can be seen that the size of the hand can be determined by calculating the distance from the core to the white dot and extracting the largest 5 points. These five distances are used as a characteristic pattern depending on the size of the hand.
【0034】この手の大きさによる特徴パターンと手相
による特徴パターンを組み合わせたデータベースを作成
することによる、個人的特徴の判別が手相だけではつき
ずらいときにでも区別が容易になり照合率も向上する。
この方法は、システム利用者の数が多い時には特に有利
になるというこの実施例特有の効果も得られる。By creating a database in which the feature pattern according to the size of the hand and the feature pattern according to the palm are combined, it becomes easy to distinguish the personal feature even when the palm alone is difficult, and the collation rate is improved. To do.
This method also has an effect peculiar to this embodiment, which is particularly advantageous when the number of system users is large.
【0035】〈実施例10〉ここで、今まで述べてきた
手相入力は指紋などに比べると、その紋様が単純なの
で、手相のコピーを光学式読み取り装置に乗せることに
より、ニセパスワード入力が他人により行なわれる危険
性も考えられる。そこで本実施例は、この問題に対し
て、実際の肉体としての手が乗っていることを確認し、
そうでない時にはファイルをオープンさせないようにす
る機能を付加したものである。<Embodiment 10> Here, since the pattern of the palm input described so far is simpler than that of a fingerprint or the like, by placing a copy of the palm on the optical reading device, a false password can be input by another person. There is a risk that it will be performed. Therefore, in this embodiment, it is confirmed that the actual hand is on this problem,
If not, the function is added to prevent the file from being opened.
【0036】具体的には、図15のように温度・脈拍セ
ンサ205を装置200に装着させる。手相入力のとき
207のように手首にセンサ205が接触するようにす
ることで、利用者の体温、一分間の脈拍数を感知できる
ようにする。手相照合のモードに入る前に、あらかじめ
登録してあるシステム利用者の、体温・脈拍データとの
照合を行ない、決められた範囲内に収まるときのみ手相
照合のモードに入れるようにさせている。このような機
能を付加することによって、コピーした手相を使って他
者にファイルを開かれることを防ぎ、ファイルの機密性
を向上させることができる。Specifically, the temperature / pulse sensor 205 is attached to the apparatus 200 as shown in FIG. The sensor 205 is brought into contact with the wrist like 207 at the time of palm input so that the body temperature of the user and the pulse rate for one minute can be sensed. Before entering the palm-matching mode, the system user's body temperature / pulse data that has been registered in advance is matched, and the palm-matching mode is entered only when it falls within a predetermined range. By adding such a function, it is possible to prevent another person from opening the file using the copied palm and improve the confidentiality of the file.
【0037】[0037]
【発明の効果】以上説明したように、パスワード入力を
顔または手のひら等の人体に関する特定箇所の画像によ
って行なうことにより以下の効果がえられる。As described above, the following effects can be obtained by inputting a password using an image of a specific portion of the human body such as a face or a palm.
【0038】1.システム利用者が自分で決めた暗証コ
ードを忘れてしまっても、自分のファイルを開くこと、
または、システムにログインすることができる。また、
それを覚えておく必要がなくなる。1. Even if the system user forgets the personal identification code decided by himself, opening his own file,
Or you can log in to the system. Also,
You don't have to remember it.
【0039】2.他人に自分の暗証コードを知られたと
しても、他人にプロテクトを解かれることはなく機密性
は保持できる。2. Even if another person knows his / her own personal identification code, the confidentiality can be maintained without being unprotected by another person.
【0040】3.パスワード入力において、キーボード
入力の煩わしい作業から開放され、処理がスムーズに行
なえる。3. For password input, the troublesome work of keyboard input is released, and processing can be performed smoothly.
【0041】4.顔または手は、同一の顔または手相を
持つ人間がいない(万人不同)、損傷を与えない限り一
生涯変わらない(終生不変)という特性を持つため、生
体の個人情報の中でも外的要因に作用されない安定した
情報となりえるため、利用者照合の信頼性が向上する。4. Faces or hands have the characteristics that no humans have the same face or palm (everyone is the same), and they do not change for the rest of their lives (invariant throughout life) unless they are damaged. Since it can be stable information that is not affected, the reliability of user verification is improved.
【図1】本発明の実施例1〜4にかかる情報処理装置の
ブロック図である。FIG. 1 is a block diagram of an information processing apparatus according to first to fourth embodiments of the present invention.
【図2】同実施例の画像処理ボードのブロック図であ
る。FIG. 2 is a block diagram of an image processing board of the embodiment.
【図3】システムセッティングを示す図である。FIG. 3 is a diagram showing system settings.
【図4】パスワード処理の動作フローチャートである。FIG. 4 is an operation flowchart of password processing.
【図5】顔画像の特徴パターン抽出処理のフローチャー
トである。FIG. 5 is a flowchart of a feature pattern extraction process for a face image.
【図6】ニューラルネット(パーセプトロン構造)の構
造図である。FIG. 6 is a structural diagram of a neural net (perceptron structure).
【図7】パスワード二重化処理の動作フローチャートで
ある。FIG. 7 is an operation flowchart of password duplication processing.
【図8】データベース変更処理のフローチャートであ
る。FIG. 8 is a flowchart of a database change process.
【図9】本発明の実施例5〜10にかかる情報処理装置
のブロック図である。FIG. 9 is a block diagram of an information processing apparatus according to examples 5 to 10 of the present invention.
【図10】同実施例の画像処理ボードのブロック図であ
る。FIG. 10 is a block diagram of the image processing board of the embodiment.
【図11】パスワード処理の動作フローチャートであ
る。FIG. 11 is an operation flowchart of password processing.
【図12】手相の特徴パターン抽出処理のフローチャー
トである。FIG. 12 is a flowchart of a palm feature pattern extraction process.
【図13】ニューラルネット(パーセプトロン構造)の
構造図である。FIG. 13 is a structural diagram of a neural net (perceptron structure).
【図14】パスワード二重化処理の動作フローチャート
である。FIG. 14 is an operation flowchart of password duplication processing.
【図15】手相パスワード入力用光学読み取り装置のイ
メージ図である。FIG. 15 is an image diagram of an optical reading device for inputting a manual phase password.
【図16】手の大きさの測定方法のイメージ図である。FIG. 16 is an image diagram of a method for measuring the size of a hand.
1 システムバス 2 CPU 3 メインメモリ 4 DMAC 5 CRTインターフェース 6 CRTディスプレイ 7 画像処理ボード 8 スチルビデオカメラ 9 LAN 10 LANインターフェース 11 I/O 12 ディスクインターフェース 13 ハードディスク 14 フロッピーディスク 15 プリンタインターフェース 16 プリンタ 17 キーボードやマウスのインターフェース 18 キーボード 19 マウス 20 デジタル・シグナル・プロセッサ 21 A/Dコンバータ 22 特徴抽出回路 23 特徴照合回路 1 System Bus 2 CPU 3 Main Memory 4 DMAC 5 CRT Interface 6 CRT Display 7 Image Processing Board 8 Still Video Camera 9 LAN 10 LAN Interface 11 I / O 12 Disk Interface 13 Hard Disk 14 Floppy Disk 15 Printer Interface 16 Printer 17 Keyboard and Mouse Interface 18 Keyboard 19 Mouse 20 Digital signal processor 21 A / D converter 22 Feature extraction circuit 23 Feature matching circuit
Claims (11)
する情報処理装置において、システム利用者の特定箇所
の画像を入力する入力手段と、該入力手段から入力した
入力画像から利用者を照合する照合手段とを有すること
を特徴とする情報処理装置。1. An information processing apparatus having a protection function of limiting system usage rights, input means for inputting an image of a specific portion of a system user, and collation for collating the user from an input image input from the input means. An information processing apparatus comprising means.
力画像から個人的特徴を抽出する手段と、複数個人の個
人的特徴をあらかじめ登録してある登録手段と、前記抽
出された個人的特徴を前記あらかじめ登録してある個人
的特徴と比較する比較手段とを有することを特徴とする
情報処理装置。2. The matching means according to claim 1, wherein the matching means extracts personal characteristics from the input image, registration means in which personal characteristics of a plurality of individuals are registered in advance, and the extracted personal characteristics. An information processing apparatus, comprising: a comparison unit that compares the personal characteristics with the personal characteristics registered in advance.
力画像から個人的特徴を抽出する手段と、学習機能を持
った識別手段とを有し、前記抽出した個人的特徴に基づ
いて、前記識別手段によって利用者にシステム利用権を
与えることを特徴とする情報処理装置。3. The matching means according to claim 1, further comprising means for extracting a personal characteristic from an input image and identification means having a learning function, wherein the collating means is based on the extracted personal characteristic. An information processing apparatus characterized in that a user is given a system use right by an identification means.
スワードを入力する手段と、前記入力キャラクタパスワ
ードと前記入力画像を二重化して利用者にシステム利用
権を与えるか否かを判断する手段とを有することを特徴
とする情報処理装置。4. The apparatus according to claim 1, further comprising means for inputting a character password, and means for determining whether or not to give the user system utilization right by duplicating the input character password and the input image. An information processing device characterized by:
るあらかじめ登録してある個人的特徴のデータベースに
登録日情報を持たせ、該登録日情報とログイン時の日時
を比較させることにより、一定の決まった期間ごとにデ
ータベースを更新していく手段を有することを特徴とす
る情報処理装置。5. The method according to claim 2, wherein a database of personal characteristics registered in advance by the registration means is provided with registration date information, and the registration date information is compared with the date and time at the time of login to make a fixed decision. An information processing apparatus having means for updating a database for each period.
かじめ登録してある個人的特徴のデータベースが更新可
能であることを特徴とする情報処理装置。6. The information processing apparatus according to claim 2, wherein the registration means can update a database of personal characteristics registered in advance.
て、前記利用者の特定箇所は顔であることを特徴とする
情報処理装置。7. The information processing apparatus according to claim 1, wherein the specific location of the user is a face.
て、前記利用者の特定箇所は手であることを特徴とする
情報処理装置。8. The information processing apparatus according to claim 1, wherein the specific location of the user is a hand.
入力手段と指紋入力手段とを有することを特徴とする情
報処理装置。9. The information processing apparatus according to claim 8, wherein the input unit includes a palm input unit and a fingerprint input unit.
相入力手段と手の大きさ判定をする手段とを有すること
を特徴とする情報処理装置。10. The information processing apparatus according to claim 8, wherein the input unit includes a palm input unit and a hand size determination unit.
度および脈拍センサによる肉体を感知する手段を有し、
該感知手段の感知結果を利用者の照合に適当することを
特徴とする情報処理装置。11. The method according to claim 8, wherein the collating means has a means for sensing a body by a temperature and pulse sensor,
An information processing apparatus, wherein the sensing result of the sensing means is suitable for user verification.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5288097A JPH07141506A (en) | 1993-11-17 | 1993-11-17 | Information processing equipment |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5288097A JPH07141506A (en) | 1993-11-17 | 1993-11-17 | Information processing equipment |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH07141506A true JPH07141506A (en) | 1995-06-02 |
Family
ID=17725761
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5288097A Pending JPH07141506A (en) | 1993-11-17 | 1993-11-17 | Information processing equipment |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH07141506A (en) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1997042559A1 (en) * | 1996-05-07 | 1997-11-13 | Iwamoto, Hideji | Security system for personal computer |
| JPH11339048A (en) * | 1998-05-29 | 1999-12-10 | Omron Corp | Individual identifying device and method and recording medium for recording individual identification program |
| US6038337A (en) * | 1996-03-29 | 2000-03-14 | Nec Research Institute, Inc. | Method and apparatus for object recognition |
| JP2000148276A (en) * | 1998-11-05 | 2000-05-26 | Fujitsu Ltd | Security monitoring device, security monitoring method, and security monitoring program recording medium |
| JP2001014052A (en) * | 1999-06-25 | 2001-01-19 | Toshiba Corp | Personal authentication method for computer system, computer system, and recording medium |
| JP2002163654A (en) * | 2000-11-29 | 2002-06-07 | Omron Corp | Controller |
| JP2002334335A (en) * | 2001-03-09 | 2002-11-22 | Toshiba Corp | Face image recognition device and traffic control device |
| JP2007524143A (en) * | 2003-06-12 | 2007-08-23 | ザ ホンコン ポリテクニック ユニヴァーシティ | Palmprint authentication method |
| WO2007099834A1 (en) * | 2006-03-01 | 2007-09-07 | Nec Corporation | Face authentication device, face authentication method, and program |
| WO2008120317A1 (en) * | 2007-03-28 | 2008-10-09 | Fujitsu Limited | Checking device, authenticating device, checking method, authenticating method, checking program, and authenticating program |
| US8005298B2 (en) | 2006-12-22 | 2011-08-23 | Canon Kabushiki Kaisha | Image processing apparatus and method thereof |
| WO2020071008A1 (en) * | 2018-10-03 | 2020-04-09 | 株式会社日立製作所 | Biometric authentication system, biometric authentication method, and program |
-
1993
- 1993-11-17 JP JP5288097A patent/JPH07141506A/en active Pending
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6038337A (en) * | 1996-03-29 | 2000-03-14 | Nec Research Institute, Inc. | Method and apparatus for object recognition |
| WO1997042559A1 (en) * | 1996-05-07 | 1997-11-13 | Iwamoto, Hideji | Security system for personal computer |
| JPH11339048A (en) * | 1998-05-29 | 1999-12-10 | Omron Corp | Individual identifying device and method and recording medium for recording individual identification program |
| JP2000148276A (en) * | 1998-11-05 | 2000-05-26 | Fujitsu Ltd | Security monitoring device, security monitoring method, and security monitoring program recording medium |
| JP2001014052A (en) * | 1999-06-25 | 2001-01-19 | Toshiba Corp | Personal authentication method for computer system, computer system, and recording medium |
| JP2002163654A (en) * | 2000-11-29 | 2002-06-07 | Omron Corp | Controller |
| JP2002334335A (en) * | 2001-03-09 | 2002-11-22 | Toshiba Corp | Face image recognition device and traffic control device |
| JP2007524143A (en) * | 2003-06-12 | 2007-08-23 | ザ ホンコン ポリテクニック ユニヴァーシティ | Palmprint authentication method |
| WO2007099834A1 (en) * | 2006-03-01 | 2007-09-07 | Nec Corporation | Face authentication device, face authentication method, and program |
| JPWO2007099834A1 (en) * | 2006-03-01 | 2009-07-16 | 日本電気株式会社 | Face authentication device, face authentication method and program |
| US8290220B2 (en) | 2006-03-01 | 2012-10-16 | Nec Corporation | Face authenticating apparatus, face authenticating method, and program |
| US8005298B2 (en) | 2006-12-22 | 2011-08-23 | Canon Kabushiki Kaisha | Image processing apparatus and method thereof |
| WO2008120317A1 (en) * | 2007-03-28 | 2008-10-09 | Fujitsu Limited | Checking device, authenticating device, checking method, authenticating method, checking program, and authenticating program |
| WO2020071008A1 (en) * | 2018-10-03 | 2020-04-09 | 株式会社日立製作所 | Biometric authentication system, biometric authentication method, and program |
| JP2020057275A (en) * | 2018-10-03 | 2020-04-09 | 株式会社日立製作所 | Biometric authentication system, biometric authentication method and program |
| EP3862968A4 (en) * | 2018-10-03 | 2022-12-28 | Hitachi, Ltd. | Biometric authentication system, biometric authentication method, and program |
| US12067095B2 (en) | 2018-10-03 | 2024-08-20 | Hitachi, Ltd. | Biometric authentication system, biometric authentication method, and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11188734B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
| Kataria et al. | A survey of automated biometric authentication techniques | |
| EP0976087B1 (en) | Biometric recognition using a master pattern set | |
| JP5008269B2 (en) | Information processing apparatus and information processing method | |
| US7983451B2 (en) | Recognition method using hand biometrics with anti-counterfeiting | |
| CN110321795B (en) | User gesture recognition method and device, computer device and computer storage medium | |
| JP2012234440A (en) | Biometric authentication device, biometric information processing device, biometric authentication system, biometric authentication server, biometric authentication client, and biometric authentication device controlling method | |
| JPH07141506A (en) | Information processing equipment | |
| JP2006500662A (en) | Palmprint authentication method and apparatus | |
| JP2004213087A (en) | Personal authentication device and personal authentication method | |
| US20020090146A1 (en) | Hand recognition with position determination | |
| JP2004220376A (en) | Security management method and system, program, and recording medium | |
| WO2013075497A1 (en) | Information acquisition device and method, and identification system and method | |
| Casula et al. | Are spoofs from latent fingerprints a real threat for the best state-of-art liveness detectors? | |
| Samatha et al. | Securesense: Enhancing person verification through multimodal biometrics for robust authentication | |
| WO2025050790A1 (en) | Identity recognition method and apparatus, and computer device and storage medium | |
| US7827412B2 (en) | Content presenting method | |
| Vasavi et al. | Novel Multimodal Biometric Feature Extraction for Precise Human Identification. | |
| JP3550038B2 (en) | Authentication method and apparatus using motion | |
| JP2018128785A (en) | Biometric authentication apparatus, biometric authentication method, and biometric authentication program | |
| JP2020107038A (en) | Information processing apparatus, information processing method, and program | |
| CN117037340B (en) | Intelligent lock control system based on data identification | |
| WO2022064565A1 (en) | Comparison device, comparison method, and program | |
| US20250111068A1 (en) | Method for determining an access right of a user, requesting computer device, authenticating computer device, and authenticating system | |
| Ives et al. | An Introduction to Biometrics |