[go: up one dir, main page]

JPH066747A - Id photo system - Google Patents

Id photo system

Info

Publication number
JPH066747A
JPH066747A JP4159656A JP15965692A JPH066747A JP H066747 A JPH066747 A JP H066747A JP 4159656 A JP4159656 A JP 4159656A JP 15965692 A JP15965692 A JP 15965692A JP H066747 A JPH066747 A JP H066747A
Authority
JP
Japan
Prior art keywords
image
data
color
memory
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4159656A
Other languages
Japanese (ja)
Inventor
Junichi Ishibashi
純一 石橋
Shinji Goto
伸二 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4159656A priority Critical patent/JPH066747A/en
Publication of JPH066747A publication Critical patent/JPH066747A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PURPOSE:To reduce data volume required for a background part and to record and store an ID face image without increasing memory capacity by substituting representative compressed data previously formed based upon the partial data of a background image area for the background image area. CONSTITUTION:Face image data in photographing are inputted to a frame memory 25, and at a moment of requiring the freezing of the face image, a signal is applied from a controller 30 to the memory 25 through a keyboard 31 to successively stop writing and freeze the face image. In the case of printing out an ID card image, data are previously stored in an external memory 43 and transferred to an image processing part 33. A memory address control part 32 is controlled by a controller 30 and data are written on a fixed position in the memory 25. Then, the face image of the compressed image is read out from the memory 43, extended and written in a prescribed position of the memory 25 from the processing part 33. After forming an ID card image on the memory 25, the image is sent to a video printer 29 by the controller and printed out.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ID用顔画像を撮像す
るためのIDフォトシステムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an ID photo system for picking up an ID face image.

【0002】[0002]

【従来の技術】従来、画像情報は、文字、数値情報に比
べ多くの情報量を必要とするため、その利用が限られて
いたが、最近になって、画像情報を扱う機器の進歩、発
展により、その制約が少なくなりつつある。
2. Description of the Related Art Conventionally, the use of image information has been limited because it requires a large amount of information as compared with character and numerical information, but recently, the progress and development of equipment for handling image information has advanced. As a result, the restrictions are decreasing.

【0003】ところで、画像が重要な役割を果たす分野
の一つにID分野が知られている。そして、かかるID
分野においては、古くから顔写真の重要性が認められて
おり、このため顔写真を得る手段として銀鉛写真、イン
スタント写真などがIDの目的で使用されていた。
The ID field is known as one of the fields in which images play an important role. And such ID
In the field, the importance of facial photographs has long been recognized, and therefore, silver lead photographs, instant photographs, etc. have been used for ID purposes as means for obtaining facial photographs.

【0004】ところが、このような銀鉛写真、インスタ
ント写真は、印画紙上の情報からなるものであるため、
プリントだけにしか情報が存在せず、この情報を取り出
してファイルしたり、加工したり、また複製することが
難しく、その応用用途が極めて限られたものになってい
た。そこで、このような不具合を除くために顔写真の情
報を電気信号に変換して取り扱うようにしたものが考え
られている。図10は、このような考えに基づくもの
で、特開昭63−316275号公報から引用した図を
示している。
However, since such silver lead photographs and instant photographs consist of information on photographic paper,
There is information only in the print, and it is difficult to take out this information, file it, process it, and copy it, and its application is extremely limited. Therefore, in order to eliminate such a problem, it has been considered to convert facial photograph information into an electric signal and handle it. FIG. 10 is based on such an idea and shows a diagram quoted from Japanese Patent Laid-Open No. 63-316275.

【0005】同図では、IDカード作成装置を示してお
り、被写体1をカラーTVカメラ2で撮像すると、この
撮像信号をA/D変換回路3にてデジタル多階調のビデ
オ画像信号に変換してフレームメモリ4に一時的に記録
する。そして、フレームメモリ4に記録したビデオ画像
信号について、コントローラ6の制御により画信号処理
回路5でフルカラービデオプリンタに適用されている色
材の不正分光吸収要素による色の濁りを除去するための
演算などを行った後、グラフィックス画像や文字画像を
発生し、被写体1の人物画像と所定の情報を合成編集し
てIDカードの画像を生成し、これをフルカラービデオ
プリンタ部7を通してプリントアウトするようにしてい
る。
FIG. 1 shows an ID card producing apparatus. When a subject 1 is imaged by a color TV camera 2, this image pickup signal is converted into a digital multi-gradation video image signal by an A / D conversion circuit 3. It is temporarily recorded in the frame memory 4. Then, with respect to the video image signal recorded in the frame memory 4, an operation for removing color turbidity due to an incorrect spectral absorption element of the color material applied to the full-color video printer by the image signal processing circuit 5 under the control of the controller 6 and the like. After that, a graphics image or a character image is generated, a person image of the subject 1 and predetermined information are combined and edited to generate an image of an ID card, which is printed out through the full-color video printer unit 7. ing.

【0006】一方、顔写真を利用する例としては、企
業、学校等の団体において、所属するメンバーの情報を
管理するためのデータベースがある。このようなデータ
ベースシステムの一例として図11に示すようなものが
知られている。この装置では、ビデオ撮像装置8、9、
10からのビデオ画像信号をイメージプロセッサ11に
取り込み、これをモニター12に表示するとともに、デ
ータファイル13に記憶し、必要によりビデオプリンタ
14によりプリントアウトできるようにしている。
[0006] On the other hand, as an example of using a face photograph, there is a database for managing the information of members who belong to an organization such as a company or a school. An example of such a database system is known as shown in FIG. In this device, the video imaging devices 8, 9,
The video image signal from 10 is taken into the image processor 11, which is displayed on the monitor 12 and stored in the data file 13 so that it can be printed out by the video printer 14 if necessary.

【0007】ところで、このようにして取り扱われるビ
デオ画像では、顔写真の場合で一人当たり数100Kバ
イトの記憶容量が必要とされている。このため、ビデオ
画像による顔写真を記録保存しようとすると、一般に用
いられている光磁気記録ディスクやハードディスクなど
の記憶媒体では、1000人分程度のビデオ画像で記憶
容量が一杯になってしまう。
By the way, in the case of a facial photograph, the video image handled in this way requires a storage capacity of several hundred kilobytes per person. For this reason, when recording and storing a face picture as a video image, the storage capacity of a generally used storage medium such as a magneto-optical recording disk or a hard disk will be filled with a video image for about 1,000 people.

【0008】このため、現実問題として、できるだけ多
人数の顔写真を記録保存できるようにすることが急務と
なっており、これを解決する手段として高能率符号化技
術を用いた符号化方式の画像データ圧縮が考えられてい
る。
For this reason, as a practical problem, it is urgently necessary to record and save as many face photographs as possible, and as a means for solving this problem, an image of an encoding system using a high-efficiency encoding technique is used. Data compression is being considered.

【0009】[0009]

【発明が解決しようとする課題】ところが、このような
符号化方式の画像データ圧縮についても、JPEG(J
oint Picture Expert Grou
p)や標準化された手法から外れたデータ圧縮法を用い
ると、画像データの互換性が保てなくなるため、データ
の共有性や他のシステムでの利用ができなくなり、将来
の画像データの利用に問題を残すおそれがあった。
However, the image data compression by such an encoding method is also performed by JPEG (J
Oint Picture Expert Grou
p) or a data compression method that deviates from the standardized method, the compatibility of the image data cannot be maintained, so that the data can not be shared and cannot be used in other systems, and the future image data can be used. There was a risk of leaving a problem.

【0010】また、顔写真の場合、顔画像の背後にくる
背景部は少なからず照明むらなどによる明暗画像になっ
たりノイズなどが存在することが多いため、これら背景
部も顔画像部と同様にして画像データ圧縮の対象とする
のでは、データ圧縮率を高めるのが難しくなるという問
題もある。
Further, in the case of a face photograph, the background portion behind the face image is often a bright and dark image due to uneven lighting, and noise is present. Therefore, the background portion is the same as the face image portion. However, there is also a problem in that it is difficult to increase the data compression rate when the image data is compressed.

【0011】また、従来の符号化法では、画像対象とし
て一枚の画像内の各部分で様々な情報がある一般画像に
対応するものであるので、ID用の顔画像に適用すると
なると、複雑なハードを必要としたり、処理時間が長く
かかるなどの不具合があった。
Further, in the conventional encoding method, since it corresponds to a general image having various information in each part of one image as an image object, it is complicated when applied to a face image for ID. However, there were problems such as requiring special hardware and taking a long processing time.

【0012】本発明は、上記事情に鑑みてなされたもの
で、多数の顔画像をメモリ容量を増やすことなく記録保
存することができ、しかも他システムと互換性を持たせ
た圧縮データ処理を行うことができるIDフォトシステ
ムを提供することを目的とする。
The present invention has been made in view of the above circumstances, and it is possible to record and store a large number of face images without increasing the memory capacity, and perform compressed data processing compatible with other systems. It is an object of the present invention to provide an ID photo system that can be used.

【0013】[0013]

【課題を解決するための手段】本発明は、ID用顔画像
を撮像する撮像手段、この撮像手段で撮像された画像よ
り顔画像と背景画像の各領域を判別する領域判別手段、
この領域判別手段で判別された背景画像領域の部分デー
タを圧縮して代表圧縮データを作成する手段、前記領域
判別手段で判別された前記顔画像領域についてはデータ
圧縮処理を実行し、前記背景画像領域については前記代
表圧縮データで置き換える手段、この手段より得られた
各データから1画面の圧縮画像データを生成し格納する
記憶手段により構成されている。
According to the present invention, there is provided an image pickup means for picking up an ID face image, an area discriminating means for discriminating each area of a face image and a background image from an image picked up by this image pickup means,
A means for compressing partial data of the background image area discriminated by the area discriminating means to create representative compressed data, a data compression process is executed for the face image area discriminated by the area discriminating means, and the background image The area is composed of a means for replacing with the representative compressed data, and a storage means for generating and storing one screen of compressed image data from each data obtained by this means.

【0014】[0014]

【作用】この結果、本発明によれば撮像手段で撮像され
た画像より判別された顔画像領域についてのみデータ圧
縮処理が実行され、背景画像の領域については、予め背
景画像領域の部分データを基に生成された代表圧縮デー
タで置き換えられるようになるので、背景部に要するデ
ータ量を少なくできて1画面当たりの圧縮画像データを
最小限にすることができる。また、こうして生成された
圧縮画像データは、他のシステムでも適用できるもので
あり、互換性を持たせて顔画像の圧縮画像データを利用
することができるようになる。
As a result, according to the present invention, the data compression processing is executed only for the face image area discriminated from the image picked up by the image pickup means, and the background image area is preliminarily based on the partial data of the background image area. Since it can be replaced with the representative compressed data generated in step 1, the amount of data required for the background portion can be reduced and the compressed image data per screen can be minimized. Further, the compressed image data generated in this way can be applied to other systems, and the compressed image data of the face image can be used with compatibility.

【0015】[0015]

【実施例】(第1実施例)[Example] (First Example)

【0016】図1は同実施例の概略構成を示している。
図において、21は被写体である人物で、背景部22の
前で撮影を行うようにしている。ここでの人物21は、
その上半身をカラーTVカメラ23で撮像するようにし
ている。
FIG. 1 shows a schematic configuration of the same embodiment.
In the figure, reference numeral 21 denotes a person who is a subject, and an image is taken in front of the background portion 22. The person 21 here is
An image of the upper half of the body is taken by the color TV camera 23.

【0017】この場合、カラーTVカメラ23からの出
力信号であるアナログ信号RGBを、AD変換器24に
与える。AD変換器24は、アナログ信号RGBをデジ
タル信号に変換するものである。そして、このAD変換
器24からのデジタルデータをフレーム画像としてフレ
ームメモリ25に一時記憶するようにする。
In this case, the analog signal RGB which is the output signal from the color TV camera 23 is given to the AD converter 24. The AD converter 24 converts the analog signal RGB into a digital signal. Then, the digital data from the AD converter 24 is temporarily stored in the frame memory 25 as a frame image.

【0018】そして、フレームメモリ25からのデジタ
ル信号を、DA変換器26に与えてアナログのビデオ信
号に変換し、このビデオ信号を出力信号変換部27に与
える。この出力信号変換部27は、ビデオ信号を、例え
ばNTSC信号に変換するものである。
Then, the digital signal from the frame memory 25 is supplied to the DA converter 26 to be converted into an analog video signal, and this video signal is supplied to the output signal converter 27. The output signal converter 27 converts the video signal into, for example, an NTSC signal.

【0019】出力信号変換部27からの出力信号をTV
モニタ28およびビデオプリンタ29に与える。TVモ
ニタ28は、ビデオ信号を画像として可視化するための
もので、ビデオプリンタ29は、ビデオ信号から画像を
プリントアウトするものである。
The output signal from the output signal converter 27 is transmitted to the TV.
A monitor 28 and a video printer 29 are provided. The TV monitor 28 is for visualizing a video signal as an image, and the video printer 29 is for printing out an image from the video signal.

【0020】一方、30はシステム全体をコントロール
するためのコントローラで、このコントローラ30に
は、ユーザが指示入力するのに使用するキーボード31
を接続している。また、コントローラ30にはメモリア
ドレスコントロール部32を接続している。メモリアド
レスコントロール部32は、フレームメモリ25に対す
る書き込み、読み出しの際のアドレスコントロールを行
うものである。
On the other hand, 30 is a controller for controlling the entire system, and a keyboard 31 used by the user for inputting instructions is input to the controller 30.
Are connected. Further, a memory address control unit 32 is connected to the controller 30. The memory address control unit 32 performs address control when writing and reading the frame memory 25.

【0021】また、フレームメモリ25には、画像処理
部33を接続している。画像処理部33は、画像圧縮の
ための8画素×8画素のブロック画像の切り出し、合成
処理、RGBとYUVの色変換処理、背景部と顔画像部
の領域を分離抽出するための画像処理など、種々の処理
を行うようにしている。
An image processing section 33 is connected to the frame memory 25. The image processing unit 33 cuts out a block image of 8 pixels × 8 pixels for image compression, a combination process, an RGB and YUV color conversion process, an image process for separating and extracting a background portion and a face image portion, and the like. , Various kinds of processing are performed.

【0022】このような画像処理部33には、DCT処
理部34、量子化部35、符号化部36を接続してい
る。ここで、DCT処理部34は、離散コサイン変換お
よびその逆変換などの処理を行うものである。量子化部
35は、量子化テーブルを用いてDCT係数毎に異なる
ステップサイズで量子化または逆量子化を行うものであ
る。符号化部36は、量子化されたデータを並び変えて
行うランレングス処理およびハフマン符号化などの可変
長符号化処理またはその逆符号化処理を行うものであ
る。
A DCT processor 34, a quantizer 35, and an encoder 36 are connected to the image processor 33. Here, the DCT processing unit 34 performs processing such as discrete cosine transform and its inverse transform. The quantization unit 35 performs quantization or inverse quantization with a different step size for each DCT coefficient using a quantization table. The coding unit 36 performs variable length coding processing such as run length processing and Huffman coding performed by rearranging quantized data, or inverse coding processing thereof.

【0023】フレームメモリ25と画像処理部33に
は、顔部・背景部領域抽出部37を接続している。顔部
・背景部領域抽出部37は、画像処理部33での画像処
理に基づいてフレームメモリ25からの画像から背景画
像領域と人物の上半身の顔画像領域に関するアドレスマ
ップデータを作成して記録するようにしている。
A face / background area extraction unit 37 is connected to the frame memory 25 and the image processing unit 33. The face / background portion area extraction unit 37 creates and records address map data regarding the background image area and the face image area of the upper half of the person from the image from the frame memory 25 based on the image processing in the image processing unit 33. I am trying.

【0024】顔部・背景部領域抽出部37には、領域判
別部38、データメモリ39、領域別圧縮データ選択部
40を接続している。ここで、領域判別部38は、顔部
・背景部領域抽出部37上で生成された各領域のアドレ
スマップデータと圧縮処理されたブロック画像のアドレ
スを比較して、このブロック画像の領域が背景部か顔部
かを判別するようにしている。データメモリ39は、背
景部のDC−DCT係数の量子化後のデータを代表圧縮
データとして一時記憶するものである。領域別圧縮デー
タ選択部40は、領域判別部38での背景部か顔部かの
判別結果によって圧縮処理するブロック画像の処理デー
タを、データメモリ39に記録された背景部代表圧縮デ
ータとするか、DCT処理部34、量子化部35、符号
化部36を通して得られたデータにするかを選択制御す
るもので、この場合、領域別圧縮データ選択部40の選
択制御によりスイッチ部41がa側またはb側に切り換
えられるようになっている。
An area discriminating section 38, a data memory 39, and an area-specific compressed data selecting section 40 are connected to the face / background area extracting section 37. Here, the area determination unit 38 compares the address map data of each area generated on the face / background area extraction unit 37 with the address of the compressed block image, and the area of this block image is the background. It is so arranged that it is determined whether it is a face part or a face part. The data memory 39 temporarily stores the quantized data of the DC-DCT coefficient in the background portion as representative compressed data. Whether or not the area-based compressed data selection unit 40 sets the processing data of the block image to be compressed according to the determination result of the background portion or the face portion by the area determination unit 38 as the background portion representative compressed data recorded in the data memory 39. , The DCT processing unit 34, the quantization unit 35, and the encoding unit 36 are used to selectively control the data. In this case, the switch unit 41 is controlled by the area-based compressed data selection unit 40 to select the side a. Alternatively, it can be switched to the b side.

【0025】スイッチ部41には、多重化部42を接続
している。多重化部42は、符号化部36を通して符号
化された顔部の圧縮データまたはデータメモリ39から
の背景部の代表圧縮データを多重信号化したりそのデコ
ードを行うようにしている。
A multiplexing unit 42 is connected to the switch unit 41. The multiplexing unit 42 multiplexes and decodes the compressed data of the face portion encoded through the encoding unit 36 or the representative compressed data of the background portion from the data memory 39.

【0026】そして、この多重化部42に外部メモリ4
3を接続している。この外部メモリ43は、圧縮された
データ、ID画像用のCG画像データ、文字データなど
をファイルにして記録保存しているもので、例えば、光
磁気ディスク装置やハードディスク装置などからなって
いる。次に、実施例の動作について説明する。
Then, the external memory 4 is added to the multiplexer 42.
3 are connected. The external memory 43 stores and stores compressed data, CG image data for ID images, character data, etc. in a file, and is composed of, for example, a magneto-optical disk device or a hard disk device. Next, the operation of the embodiment will be described.

【0027】まず、カラーTVカメラ23により被写体
である人物21の顔を含んだ上半身を撮像する。この場
合、人物21を見易くするためにその背後にモノトーン
の背景部22を設けて撮像を行うようにする。また、カ
ラーTVカメラ23は、前もってホアイトバランス調
整、レンズの絞り調整、ピント調整が行われているもの
とする。カラーTVカメラ23からのアナログ信号RG
Bは、AD変換器24に送られ、デジタル信号に変換さ
れ、フレームメモリ25に一時記憶される。
First, the color TV camera 23 captures an image of the upper half of the body including the face of the person 21 who is the subject. In this case, in order to make the person 21 easy to see, a monotone background portion 22 is provided behind the person 21 to capture an image. Further, it is assumed that the color TV camera 23 has previously been adjusted for white balance, lens aperture adjustment, and focus adjustment. Analog signal RG from color TV camera 23
B is sent to the AD converter 24, converted into a digital signal, and temporarily stored in the frame memory 25.

【0028】そして、フレームメモリ25に記憶された
デジタル信号は、ビデオ信号として出力できるように同
期を取りながら順次読み出され、DA変換器26に送ら
れ、アナログのビデオ信号に変換される。このビデオ信
号は、TVモニタ28に送られ、人物の上半身画像とし
てモニタ表示される。これにより、モニタ画像を見なが
ら顔画像が適切に撮れるように照明の具合やカメラの調
整が行われる。
The digital signals stored in the frame memory 25 are sequentially read out in synchronism so that they can be output as video signals, sent to the DA converter 26, and converted into analog video signals. This video signal is sent to the TV monitor 28 and is displayed on the monitor as an upper half image of the person. Thereby, the lighting condition and the camera are adjusted so that the face image can be appropriately captured while looking at the monitor image.

【0029】この状態から、ID画像として用いる顔画
像を撮るには、撮影中の画像データをフレームメモリ2
5に取り込み、このフレームメモリ25上の顔画像を静
止(フリーズ)させるためにコントローラ30からフリ
ーズコントロール信号がフレームメモリ25に与えられ
る。このような動作は、フリーズしたい瞬間にユーザが
キーボード31よりキー入力する。すると、コントロー
ラ30によりメモリアドレスコントロール部32から出
力していたフレームメモリ25の順次書き込み指示が停
止されることで実現される。この場合、読み込みデータ
アドレスコントロールを続行させると、フリーズ操作の
有無にかかわらずフレームメモリ25の画像データがD
A変換器26を通して出力され、TVモニタ28に映し
出されカメラ画像がモニタできる。また、IDカード画
像をプリントするには、外部メモリ43に前もってCG
画像のロゴ画像や氏名などのデータを保存しておき、プ
リント時に、外部メモリ43から画像処理部33に対し
てロゴ画像などのデータを転送し、コントローラ30に
よりメモリアドレスコントロール部32を制御しながら
フレームメモリ25上の定められた画像位置にロゴ画像
などを書き込むようにアドレスコントロールを行う。そ
して、外部メモリ43から圧縮画像の顔画像も読みだ
し、画像伸長した後、画像処理部33からフレームメモ
リ25の所定画像位置に書き込むようにする。そして、
IDカード画像がフレームメモリ25上に生成されたと
ころで、コントローラ30によりビデオプリンタ29に
送られ、IDカード画像としてプリントアウトされるこ
とになる。次に、実施例の要部についてさらに詳述す
る。まず、フレームメモリ25上に画像が静止画として
定まった後に、これを記録保存するには、画像処理部3
3で以下のような動作が行われる。
From this state, in order to take a face image to be used as an ID image, the image data being taken is taken from the frame memory 2
5, a freeze control signal is given from the controller 30 to the frame memory 25 in order to freeze the face image on the frame memory 25. Such an operation is keyed in by the user from the keyboard 31 at the moment when the user wants to freeze. Then, the controller 30 stops the sequential write instruction of the frame memory 25 output from the memory address control unit 32, and this is realized. In this case, if the read data address control is continued, the image data in the frame memory 25 will be D regardless of the presence or absence of the freeze operation.
The image is output through the A converter 26 and displayed on the TV monitor 28 so that the camera image can be monitored. In addition, in order to print the ID card image, CG is previously stored in the external memory 43.
Data such as the logo image and name of the image are stored, and when printing, the data such as the logo image is transferred from the external memory 43 to the image processing unit 33, and the controller 30 controls the memory address control unit 32. Address control is performed so that a logo image or the like is written at a predetermined image position on the frame memory 25. Then, the face image of the compressed image is also read from the external memory 43, the image is expanded, and then written from the image processing unit 33 to a predetermined image position of the frame memory 25. And
When the ID card image is generated on the frame memory 25, it is sent to the video printer 29 by the controller 30 and printed out as an ID card image. Next, the main part of the embodiment will be described in more detail. First, after the image is set on the frame memory 25 as a still image, the image processing unit 3
In 3, the following operation is performed.

【0030】この場合、フレームメモリ25上の画像
は、図2に示すように背景部がAで人物の顔部がBのよ
うな配置で形成されるが、まず、このような画像の水平
方向での画素輝度(濃度)の差分の絶対値を求める。
In this case, the image on the frame memory 25 is formed such that the background portion is A and the face portion of the person is B as shown in FIG. The absolute value of the difference in the pixel brightness (density) is calculated.

【0031】いま、図示cの1ライン上で図3に示すよ
うなデータが得られたとする。これにより図3では、図
示左から走査した差分値がしきい値tを越えた座標位置
と、図示右から走査した差分値がしきい値tを大きく越
えた座標位置がそれぞれ背景部Aと顔部Bの境界座標D
として求まる。そして、このような処理を画像の垂直方
向に上から下まで各ライン上で繰り返すことで背景部A
と顔部Bが分離される。このように画像処理部33にお
いて、所定のしきい値tを与えてエッジ検出処理を行う
ことで背景部Aと顔部Bの両領域が抽出されることにな
る。
Now, assume that the data as shown in FIG. 3 is obtained on one line shown in FIG. As a result, in FIG. 3, the coordinate position where the difference value scanned from the left in the figure exceeds the threshold value t and the coordinate position where the difference value scanned from the right side in the figure greatly exceeds the threshold value t are the background portion A and the face, respectively. Boundary coordinate D of part B
Is obtained as. Then, by repeating such processing on each line from the top to the bottom in the vertical direction of the image, the background portion A
The face B is separated. In this way, in the image processing unit 33, both the background portion A and the face portion B are extracted by applying the predetermined threshold value t and performing the edge detection processing.

【0032】そして、この画像処理部33での結果が顔
部・背景部領域抽出部37に与えられる。すると、顔部
・背景部領域抽出部37では、画像処理部33で抽出さ
れた背景部Aと顔部Bの領域に応じて各領域アドレスの
マップデータが作成され記録される。
The result of the image processing unit 33 is given to the face / background area extraction unit 37. Then, the face / background portion area extraction unit 37 creates and records map data of each area address according to the areas of the background portion A and the face portion B extracted by the image processing unit 33.

【0033】次に、図2に示す画像中の左上部の8画素
×8画素のブロック画像を読み出し、領域判別部38を
用いて、その部分のアドレスが背景部Aか顔部Bかを顔
部・背景部領域抽出部37のマップデータを参照して判
定し、背景部Aである場合はその部分のデータを圧縮し
て代表圧縮データの作成にとりかかる。
Next, the block image of 8 pixels × 8 pixels in the upper left portion of the image shown in FIG. 2 is read out, and the area discrimination unit 38 is used to determine whether the address of the portion is the background portion A or the face portion B. The determination is made by referring to the map data of the part / background part area extraction part 37, and if it is the background part A, the data of that part is compressed and the representative compressed data is created.

【0034】この場合、画像左上部分のブロックデータ
をフレームメモリ25から読み出し画像処理部33に転
送する。ここでは、データ圧縮するために、まずそのブ
ロック画像のRGBデータから輝度と他の2色のデータ
のYUVデータに変換する。そして、DCT処理部34
で各データをDCT(離散コサイン変換)処理する。そ
の後、各YUVのDC−DCT係数に対して量子化部3
5で異なるステップサイズに量子化する。この量子化さ
れたデータが、ここでいう代表圧縮データであり、この
代表圧縮データがデータメモリ39に一時記憶されるよ
うになる。この状態から、フレームメモリ25上の画像
の圧縮にとりかかる。
In this case, the block data in the upper left portion of the image is read from the frame memory 25 and transferred to the image processing unit 33. Here, in order to perform data compression, first, the RGB data of the block image is converted into YUV data of luminance and other two color data. Then, the DCT processing unit 34
Each data is subjected to DCT (discrete cosine transform) processing. Then, the quantizer 3 is applied to the DC-DCT coefficient of each YUV.
Quantize to a different step size at 5. This quantized data is the representative compressed data here, and this representative compressed data is temporarily stored in the data memory 39. From this state, the compression of the image on the frame memory 25 starts.

【0035】この場合、図2に示す画像について左端上
部から右端下部までを8画素×8画素のブロックに多分
割して圧縮処理を行うようになる。ここでは、最初の左
端上部の8画素×8画素のブロックは背景部Aであり、
コントローラ30により顔部・背景部領域抽出部37と
領域判別部38は、その画像ブロックが背景部Aである
と判別するので、領域別圧縮データ選択部40によりス
イッチ部41がb側に接続され、データメモリ39の代
表圧縮データが多重化部42に伝えられ、外部メモリ4
3に記録されるようになる。
In this case, the image shown in FIG. 2 is divided into blocks of 8 pixels × 8 pixels from the upper left end to the lower right end to perform compression processing. Here, the first block of 8 pixels × 8 pixels at the upper left end is the background portion A,
The controller 30 causes the face / background portion area extraction unit 37 and the area determination unit 38 to determine that the image block is the background portion A. Therefore, the switch unit 41 is connected to the side b by the region-specific compressed data selection unit 40. , The representative compressed data of the data memory 39 is transmitted to the multiplexing unit 42, and the external memory 4
3 will be recorded.

【0036】次に、その横の8画素×8画素のブロック
の処理にかかるが、ここでも背景部Aなので、上述と同
様に、そのブロックに対してもデータメモリ39の代表
圧縮データが多重化部42に伝えられ、外部メモリ43
に記録されるようになる。
Next, regarding the processing of the block of 8 pixels × 8 pixels on the side of the block, since the background portion A is used here as well, the representative compressed data of the data memory 39 is multiplexed to that block as well, as described above. The external memory 43 is transmitted to the section 42.
Will be recorded in.

【0037】以下、同様にして8画素×8画素の各ブロ
ックについて処理を繰り返すが、処理するブロックが顔
部Bとなると、顔部・背景部領域抽出部37と領域判別
部38が、その画像ブロックを顔部であると判断するの
で、領域別圧縮データ選択部40により、スイッチ部4
1がa側に接続される。
Thereafter, the processing is repeated for each block of 8 pixels × 8 pixels in the same manner. When the block to be processed is the face portion B, the face portion / background portion area extracting portion 37 and the area discriminating portion 38 cause the image to be processed. Since it is determined that the block is the face portion, the area-based compressed data selection unit 40 causes the switch unit 4
1 is connected to the a side.

【0038】この場合、顔部Bの8×8のブロック画像
が画像処理部33に転送されると、RGB画像から輝度
と他の2色のデータのYUVデータに変換される。そし
て、DCT処理部34でDCT処理し、8×8のDCT
係数に対して量子化部35で係数毎に異なるステップサ
イズで量子化し、さらに、符号化部36でランレングス
処理を行うとともに可変長符号化処理を行って多重化部
42に伝えられ、外部メモリ43に記録されるようにな
る。
In this case, when the 8 × 8 block image of the face B is transferred to the image processing unit 33, the RGB image is converted into YUV data of luminance and other two color data. Then, DCT processing is performed by the DCT processing unit 34 to obtain 8 × 8 DCT.
The quantization unit 35 quantizes the coefficient with a different step size for each coefficient, and the encoding unit 36 performs run-length processing and variable-length encoding processing, which is transmitted to the multiplexing unit 42, and is transmitted to the external memory. 43 will be recorded.

【0039】次も顔部Bの8×8のブロック画像であれ
ば、上述と同様な圧縮処理となり、以下、これらの処理
が繰り返し実行され、背景部Aは背景部と判断されると
代表圧縮データが多重化部42を経て外部メモリ43に
記録され、顔部Bは顔部と判断されると圧縮処理が行わ
れ、これが多重化部42を経て外部メモリ43に記録さ
れるようになる。そして、このような顔画像を含む1画
面分の圧縮データは、撮影当事者のIDナンバなど識別
するためのファイル名とともに記録される。次に、圧縮
画像の伸長による復元について詳述する。
Next, if it is an 8 × 8 block image of the face portion B, the compression processing similar to the above is performed, and thereafter, these processings are repeatedly executed, and if the background portion A is judged to be the background portion, the representative compression is performed. The data is recorded in the external memory 43 via the multiplexing unit 42, and when the face portion B is determined to be the face portion, compression processing is performed, and this is recorded in the external memory 43 via the multiplexing unit 42. Then, the compressed data for one screen including such a face image is recorded together with the file name for identifying the ID number of the person involved in photographing. Next, the restoration by decompressing the compressed image will be described in detail.

【0040】この圧縮画像の復元は、圧縮と逆プロセス
で行われる。この場合、伸長する画像のファイル名デー
タをキーボード31から入力してコントローラ30に伝
える。すると、外部メモリ43から該当するファイル画
像が読み出される。
Decompression of this compressed image is the reverse process of compression. In this case, the file name data of the image to be expanded is input from the keyboard 31 and transmitted to the controller 30. Then, the corresponding file image is read from the external memory 43.

【0041】そして、ファイルの圧縮データが多重化部
42に入力されると、逆多重化処理される。この場合、
領域別圧縮データ選択部40によりスイッチ部41をa
側に接続しておけば、圧縮データは符号化部36に転送
されて逆符号化され、8画素×8画素のブロック画像に
戻され、量子化部35で逆量子化して元の値に近いDC
T係数に戻される。さらに、これをDCT処理部34で
逆DCT演算して8画素×8画素のYUV画像データを
生成して、画像処理部33に転送し、RGB画像データ
に変換して1ブロックが復元される。そして、この1ブ
ロックの画像データをメモリアドレスコントロール部3
2のアドレスコントロールによってフレームメモリ25
に書き込んでいく。このような伸長処理を全ブロックに
ついて行うことで一画面の顔画像がフレームメモリ25
上に復元されることになる。
When the compressed data of the file is input to the multiplexing unit 42, it is demultiplexed. in this case,
The area-based compressed data selection unit 40 causes the switch unit 41 to
If it is connected to the side, the compressed data is transferred to the encoding unit 36 and inversely encoded, is returned to a block image of 8 pixels × 8 pixels, and is inversely quantized by the quantization unit 35 to be close to the original value. DC
It is returned to the T coefficient. Further, the DCT processing unit 34 performs an inverse DCT operation to generate YUV image data of 8 pixels × 8 pixels, transfers the YUV image data to the image processing unit 33, converts the YUV image data into RGB image data, and restores one block. Then, the image data of this one block is transferred to the memory address control unit 3
Frame memory 25 by address control of 2
Write in. By performing such decompression processing for all blocks, a face image on one screen can be displayed in the frame memory 25.
Will be restored on top.

【0042】ここで、ブロックとブロックの繋がりをス
ムーズにするため画像処理部33からフレームメモリ2
5に転送する前に画像処理部33で平滑化処理すると見
やすい画像が得られる。
Here, in order to make the connection between the blocks smooth, the image processing unit 33 to the frame memory 2 is used.
If the smoothing process is performed by the image processing unit 33 before transferring to 5, an image that is easy to see can be obtained.

【0043】従って、このようにすれば、フレームメモ
リのフレーム画像について背景部と顔画像部の領域を分
離して、背景部と顔画像部で圧縮データを変えて記録保
存するようにしているので、つまり、顔画像部では一般
の圧縮処理を行い、背景部については、予め背景部内の
ある色データを圧縮して代表圧縮データを生成してお
き、この代表圧縮データを背景部での圧縮処理の結果と
して用いるようにしているので、背景部に要するデータ
量を大幅に少なくすることができるようになり、これに
より多数のID顔画像をメモリ容量を増やすことなく記
録保存できることになる。また、このシステムにより作
られた圧縮画像データは他のシステムに適用できるもの
であり、他のシステムで作られた圧縮画像データもこの
システムに適用できることから、他システムと互換性を
もって顔画像の圧縮画像データを利用することができ
る。また、背景部を一種類の色の画像データにすること
ができるので、背景画像の明暗をなくすことができ、見
た目にすっきりとしたID画像が得られる。 (第2実施例)図4は、第2実施例の概略構成を示すも
ので、上述した図1と異なる部分のみを示している。
Therefore, in this way, the area of the background image and the face image area of the frame image of the frame memory are separated, and the compressed data is changed in the background image and the face image area and recorded and saved. That is, general compression processing is performed in the face image portion, and certain color data in the background portion is compressed in advance to generate representative compressed data for the background portion, and this representative compressed data is compressed in the background portion. Since it is used as a result, the amount of data required for the background portion can be significantly reduced, and a large number of ID face images can be recorded and saved without increasing the memory capacity. Also, the compressed image data created by this system can be applied to other systems, and the compressed image data created by other systems can also be applied to this system. Image data can be used. Further, since the background portion can be image data of one type of color, the contrast of the background image can be eliminated, and an ID image with a neat appearance can be obtained. (Second Embodiment) FIG. 4 shows a schematic configuration of the second embodiment, and shows only a portion different from FIG. 1 described above.

【0044】この場合、上述した背景部でのDC−DC
T係数の量子化後のデータを代表圧縮データとして一時
記憶するデータメモリ部39に対して所定の色CのDC
−DCT係数の量子化後の圧縮データを求めて第2の代
表圧縮データとして記憶している第2のデータメモリ4
5と、画像伸張に使う先と別な色DのDC−DCT係数
の量子化後の圧縮データを予め求めて第3の代表圧縮デ
ータとして記憶している第3のデータメモリ46を有
し、さらに画像伸張時逆符号化後に処理しているデータ
が背景部で、かつ色Cの第2の代表圧縮データであるか
否かを判別するための代表データ判別部47、この代表
データ判別部47からの判別信号を受取り色Cの第2の
代表圧縮データから色Dの第3の代表圧縮データに変え
るために、次の逆量子化前で第3の代表圧縮データに変
えるための圧縮データ選択部48を有している。その他
は、図1と同様であり、同一部分には同符号を付してい
る。次に、実施例の動作を説明する。
In this case, DC-DC in the background portion described above
A DC of a predetermined color C is stored in the data memory unit 39 that temporarily stores the data after the quantization of the T coefficient as the representative compressed data.
A second data memory 4 for obtaining compressed data after quantization of DCT coefficients and storing it as second representative compressed data.
5 and a third data memory 46 in which compressed data after quantization of the DC-DCT coefficient of the color D different from the destination used for image expansion is obtained in advance and stored as third representative compressed data, Further, the representative data discriminating unit 47 for discriminating whether or not the data processed after the inverse encoding at the time of image expansion is the background portion and the second representative compressed data of the color C, the representative data discriminating unit 47. Compressed data selection for converting the second representative compressed data of the color C into the third representative compressed data of the color D in order to change the discrimination signal from the third representative compressed data of the color D It has a section 48. Others are the same as those in FIG. 1, and the same portions are denoted by the same reference numerals. Next, the operation of the embodiment will be described.

【0045】基本的な動作は第1実施例に沿ったもので
あるが、ここでは予め代表圧縮データを作成しておき、
第2のデータメモリ45に記憶しておく。このため第2
のデータメモリ45はROMで実現してもよい。
The basic operation is in accordance with the first embodiment, but here representative compressed data is created in advance,
It is stored in the second data memory 45. Therefore, the second
The data memory 45 may be implemented by a ROM.

【0046】そして、圧縮時処理の画像ブロックが背景
部であれば、領域別圧縮データ選択部40によりスイッ
チ部41をb側に接続して第2のデータメモリ45の代
表圧縮データを多重化部42に伝える。また、画像ブロ
ックが顔部であれば、先と同様にした処理を行う。この
場合、圧縮データ選択部48によるスイッチ部49はc
側に接続しておき、量子化部35から符号化部36にデ
ータ転送できるようにしておく。これにより、多重化部
42を経て外部メモリ43に背景部の色がCに変更され
た顔画像が撮影当事者のIDナンバーなど識別するため
のファイル名とともに記録される。一方、伸長の場合
は、第1実施例と同様であるが、背景部のデータが色C
であれば色Dにして顔画像を作成するところが異なる。
If the image block to be processed at the time of compression is the background part, the area-specific compressed data selection section 40 connects the switch section 41 to the b side to combine the representative compressed data of the second data memory 45 with the multiplexing section. Tell 42. If the image block is a face portion, the same process as above is performed. In this case, the switch unit 49 by the compressed data selection unit 48 is c
It is connected to the side so that data can be transferred from the quantizer 35 to the encoder 36. As a result, the face image having the background color changed to C is recorded in the external memory 43 via the multiplexing unit 42 together with the file name for identifying the ID number of the person who has taken the image. On the other hand, in the case of decompression, the same as in the first embodiment, but the data of the background part is the color C
In that case, the difference is that the face image is created with color D.

【0047】この場合、伸長するファイルなデータをキ
ーボード31から入力してコントローラ30に伝える
と、外部メモリ43より該当するファイル画像が読み出
される。
In this case, when decompressing file data is input from the keyboard 31 and transmitted to the controller 30, the corresponding file image is read from the external memory 43.

【0048】そして、ファイルの圧縮データが多重化部
42に入力されると、逆多重化処理される。この場合、
領域別圧縮データ選択部40によりスイッチ部41をa
側に接続しておけば、圧縮データは符号化部36へ転送
されて逆符号化され、8画素×8画素のブロック画像に
戻される。この時、AC−DCT係数が零でDC−DC
T係数にあたるデータ値が圧縮時の第2の代表圧縮デー
タであるか否かの判定を代表データ判別部47で行い、
ここで、一致していれば、その判別信号を圧縮データ選
択部48で受取ってスイッチ部49をd側に接続する。
すると、第3のデータメモリ46からの第3の代表圧縮
データの値が量子化部35に伝えられ逆量子化処理を行
う。また、一致しない場合は、圧縮データ選択部48に
よりスイッチ部49はc側に接続したままで量子化部3
5に伝える。
When the compressed data of the file is input to the multiplexing unit 42, it is demultiplexed. in this case,
The area-based compressed data selection unit 40 causes the switch unit 41 to
If it is connected to the side, the compressed data is transferred to the encoding unit 36, is inversely encoded, and is returned to a block image of 8 pixels × 8 pixels. At this time, the AC-DCT coefficient is zero and DC-DC
The representative data discriminating unit 47 determines whether the data value corresponding to the T coefficient is the second representative compressed data at the time of compression,
If they match, the compressed data selection unit 48 receives the determination signal and connects the switch unit 49 to the d side.
Then, the value of the third representative compressed data from the third data memory 46 is transmitted to the quantizer 35, and the inverse quantization process is performed. If they do not match, the compression data selection unit 48 keeps the switch unit 49 connected to the c side and the quantization unit 3
Tell 5.

【0049】量子化部35では、逆量子化を行い、8画
素×8画素のブロックの元の値に近いDCT係数に戻さ
れる。さらに、これをDCT処理部34で逆DCT演算
して8画素×8画素のYUV画像データ生成して、画像
処理部33に転送し、RGB画像データに変換して1ブ
ロックが復元される。そして、この1ブロックの画像デ
ータをメモリアドレスコントロール部32のアドレスコ
ントロールによってフレームメモリ25に順次書き込ん
でいく。
In the quantizer 35, inverse quantization is performed and the DCT coefficient is returned to the original value of the block of 8 pixels × 8 pixels. Further, this is subjected to inverse DCT calculation in the DCT processing unit 34 to generate YUV image data of 8 pixels × 8 pixels, transferred to the image processing unit 33, and converted into RGB image data to restore one block. Then, the image data of one block is sequentially written in the frame memory 25 by the address control of the memory address control unit 32.

【0050】このような伸長処理を全ブロックについて
行うことで一画面の顔画像がフレームメモリ25上に復
元される。この場合の背景部の色はDになっている。こ
こでも、ブロックとブロックの繋がりをスムーズにする
ために画像処理部33からフレームメモリ25に転送す
る前に画像処理部33で平滑化処理すると見やすい画像
が得られる。
A face image of one screen is restored in the frame memory 25 by performing such expansion processing for all blocks. The color of the background portion in this case is D. Also in this case, an image that is easy to see can be obtained by performing smoothing processing in the image processing unit 33 before transferring from the image processing unit 33 to the frame memory 25 in order to smooth the connection between blocks.

【0051】従って、このようにすれば圧縮処理時に背
景部の色を所定の色Cにしておき、伸張時に圧縮データ
が所定の色Cであるか判別して、色Cであれば、そのデ
ータを色Dに置き換えて伸長できるようになり、一度撮
影して作成した顔画像の背景部分の色を変更できること
になる。このことは、このシステムで圧縮した画像を他
のシステムで利用すると、画像伸長した場合に画像圧縮
時の背景色で復元されるが、元のシステムで画像伸長し
てカード画像をプリントするような場合は、背景色を変
えて復元することができるので、例えば、IDカード社
員証発行の応用では、所属別、事業所別などで背景色を
変更して作成することもできるようになる。 (第3実施例)
Therefore, in this way, the color of the background portion is set to the predetermined color C at the time of compression processing, and it is judged at the time of expansion whether the compressed data is the predetermined color C. Can be replaced with the color D to be expanded, and the color of the background portion of the face image once photographed and created can be changed. This means that if an image compressed with this system is used in another system, it will be restored with the background color when the image was compressed, but if the image was expanded with the original system, a card image will be printed. In this case, the background color can be changed and restored. For example, in the application of issuing an ID card employee ID card, the background color can be changed for each affiliation, business office, or the like. (Third embodiment)

【0052】さて、一度撮影して作成し保存した顔画像
を再生してIDカードに仕上げた場合、人物の位置が左
右のどちらかに片寄ったプリント画になっていることが
多く、大変見栄えのよくないIDカードになることが多
かった。
By the way, when a face image that has been once photographed and created and saved is reproduced and finished as an ID card, the printed image is often a person's position deviated to the left or right, which is very attractive. It was often a bad ID card.

【0053】これは、表示するモニタTVの中心と、撮
り込んだ画像の中心が必ずしも一致せずに片寄って撮影
されることがあるためで、また、撮影時に人物位置を画
像の中心となるようにカメラ操作するのも煩わしいこと
でもあった。
This is because the center of the monitor TV to be displayed and the center of the captured image may not necessarily coincide with each other and may be photographed with a bias. Also, at the time of photographing, the person's position may become the center of the image. It was also troublesome to operate the camera.

【0054】そこで、同実施例では、顔画像の撮影時に
人物がある程度モニタTVの真ん中に来るようにすれ
ば、後は自動的に顔画像の位置が画面の中心部にくるよ
うに修正処理し失敗のないIDカード用の顔画像を記録
保存できるようにしたものである。
Therefore, in the present embodiment, if a person is made to come to the center of the monitor TV to some extent when the face image is taken, then the face image is automatically corrected so that the position of the person is at the center of the screen. A face image for an ID card that does not fail can be recorded and saved.

【0055】図5は、同実施例を実現するための概略構
成を示すもので、図において、51は被写体である人物
で、モノトーン背景部52の前で撮影を行うようにして
いる。人物51は、その上半身をカラーTVカメラ53
で撮像するようにしている。
FIG. 5 shows a schematic configuration for realizing the same embodiment. In the figure, 51 is a person who is a subject, and an image is taken in front of the monotone background portion 52. The person 51 has a color TV camera 53 on the upper body.
I am trying to take an image.

【0056】この場合、カラーTVカメラ53からの出
力信号であるアナログ信号RGBを、AD変換器54に
与える。AD変換器54は、アナログ信号RGBをデジ
タル信号に変換するものである。そして、このAD変換
器54からのデジタルデータをフレーム画像としてフレ
ームメモリ55に一時記憶するようにする。
In this case, the analog signal RGB which is the output signal from the color TV camera 53 is given to the AD converter 54. The AD converter 54 converts the analog signal RGB into a digital signal. Then, the digital data from the AD converter 54 is temporarily stored in the frame memory 55 as a frame image.

【0057】そして、フレームメモリ55からのデジタ
ル信号を、DA変換器56に与えてアナログのビデオ信
号に変換し、このビデオ信号を出力信号変換部57に与
える。この出力信号変換部57は、ビデオ信号を、例え
ばNTSC信号に変換するものである。
Then, the digital signal from the frame memory 55 is given to the DA converter 56 to be converted into an analog video signal, and this video signal is given to the output signal converting section 57. The output signal converter 57 converts the video signal into, for example, an NTSC signal.

【0058】出力信号変換部57からの出力信号をTV
モニタ58およびビデオプリンタ59に与える。TVモ
ニタ58は、ビデオ信号を画像として可視化するための
もので、ビデオプリンタ59は、ビデオ信号から画像を
プリントアウトするものである。
The output signal from the output signal converter 57 is sent to the TV.
A monitor 58 and a video printer 59 are provided. The TV monitor 58 is for visualizing a video signal as an image, and the video printer 59 is for printing out an image from the video signal.

【0059】一方、60はシステム全体をコントロール
するためのコントローラで、このコントローラ60に
は、ユーザが指示入力するのに使用するキーボード61
を接続している。ここでのキーボード61は、後述する
重み値の入力や諸指示にも使用する。
On the other hand, 60 is a controller for controlling the entire system, and a keyboard 61 used by the user for inputting instructions is input to the controller 60.
Are connected. The keyboard 61 here is also used for inputting weight values and various instructions to be described later.

【0060】フレームメモリ55には、肌色検出部6
2、肌色領域重心位置座標演算部63、背景色検出部6
4、背景色領域重心位置座標演算部65を接続してい
る。ここで、肌色検出部62は、例えば標準的な日本人
の肌色とされている色データ値を予めキーボード61か
ら入力しておき、その色を基準として、画像から肌色と
思われる色を検出するようにしている。肌色領域重心位
置座標演算部63は、肌色検出部62で検出した肌色と
思われる色の画像領域を求めて、その領域の重心位置座
標を算出するようにしている。背景色検出部64は、例
えば明らかに背景色と思われる部分(画像右端上または
左端上)の色を検出し、その色データからコントローラ
60にて代表背景色を求め、その色を基準として、画像
からその色の範囲内にあるかを検出するようにしてい
る。背景色領域重心位置座標演算部65は、背景色検出
部64で検出した背景色と思われる色の色画像領域を求
めてその領域の重心位置座標を算出するようにしてい
る。
In the frame memory 55, the skin color detecting section 6
2. Skin color area centroid position coordinate calculation unit 63, background color detection unit 6
4. The background color area centroid position coordinate calculation unit 65 is connected. Here, the flesh color detecting unit 62 inputs, for example, a color data value, which is a standard Japanese flesh color, from the keyboard 61 in advance, and detects a color considered to be a flesh color from the image based on the color data value. I am trying. The skin color area barycentric position coordinate calculation unit 63 obtains an image area of a color considered to be a skin color detected by the skin color detection unit 62 and calculates barycentric position coordinates of the area. The background color detection unit 64 detects, for example, a color of a portion (upper right end or upper left end of the image) which is apparently a background color, obtains a representative background color from the color data by the controller 60, and uses that color as a reference. The image is detected whether it is within the range of the color. The background color area barycentric position coordinate calculation unit 65 obtains a color image area of a color considered to be the background color detected by the background color detection unit 64 and calculates the barycentric position coordinates of the area.

【0061】そして、肌色領域重心位置座標演算部63
と背景色領域重心位置座標演算部65には、人物画像中
心位置座標演算部66を接続している。この人物画像中
心位置座標演算部66は、肌色領域重心位置座標演算部
63と背景色領域重心位置座標演算部65で演算したそ
れぞれの領域の重心位置座標から人物画像の中心位置座
標を算出するものである。この場合、人物画像中心位置
座標演算部66での演算には、顔部から算出(またはキ
ーボード61から入力)した重み係数Wa 67、背景部
から算出(またはキーボード61から入力)した重み係
数Wb 68が用いられるようになっている。
Then, the skin color area barycenter position coordinate calculation unit 63
A person image center position coordinate calculation unit 66 is connected to the background color area barycenter position coordinate calculation unit 65. The person image center position coordinate calculation unit 66 calculates the center position coordinates of the person image from the center of gravity position coordinates of the respective regions calculated by the skin color region center of gravity position coordinate calculation unit 63 and the background color region center of gravity position coordinate calculation unit 65. Is. In this case, in the calculation in the person image center position coordinate calculation unit 66, the weighting coefficient Wa 67 calculated from the face portion (or input from the keyboard 61) and the weighting coefficient Wb 68 calculated from the background portion (or input from the keyboard 61). Is being used.

【0062】人物画像中心位置座標演算部66には、人
物画像切り出し部69を接続している。この人物画像切
り出し部69は、人物画像中心位置座標演算部66で算
出した人物画像の中心位置座標を基に人物画像をフレー
ムメモリ55から切り出し、その画像データを外部メモ
リ70に記録保存させるようにしている。ここでの外部
メモリ70は、光磁気ディスクやハードディスクなどか
らなっている。次に、実施例の動作について説明する。
この場合、カラーTVカメラ53をスチールビデオカメ
ラとして、人物51の上半身を撮影する。カラーTVカ
メラ53からのアナログ信号RGBは、AD変換器54
に送られ、デジタル信号に変換され、フレームメモリ5
5に一時記憶される。
A person image cutting-out section 69 is connected to the person image center position coordinate calculating section 66. The person image cutout unit 69 cuts out the person image from the frame memory 55 based on the center position coordinates of the person image calculated by the person image center position coordinate calculation unit 66, and records and stores the image data in the external memory 70. ing. The external memory 70 here comprises a magneto-optical disk, a hard disk, or the like. Next, the operation of the embodiment will be described.
In this case, the color TV camera 53 is used as a still video camera to photograph the upper half of the person 51. The analog signal RGB from the color TV camera 53 is converted into an AD converter 54.
To the frame memory 5
5 is temporarily stored.

【0063】そして、フレームメモリ55に記憶された
デジタル信号は、ビデオ信号として出力できるように同
期を取りながら順次読み出され、DA変換器56に与え
られ、さらに出力信号変換部57に与えられ、NTSC
信号として出力される。この信号をビデオプリンタ59
に入力すれば、プリントが画像として出力でき、また、
TVモニタ58に入力すれば、フレームメモリ55上の
画像がモニタできる。
Then, the digital signals stored in the frame memory 55 are sequentially read out in synchronization with each other so that they can be output as a video signal, supplied to the DA converter 56, and further supplied to the output signal converter 57. NTSC
It is output as a signal. This signal is sent to the video printer 59.
If you input to, you can output the print as an image,
When input to the TV monitor 58, the image on the frame memory 55 can be monitored.

【0064】この場合、カラーTVカメラ53をスチー
ルビデオカメラとして撮像した1画面分の画像をフレー
ムメモリ55に記録するには、カラーTVカメラ53よ
り繰り返して送り出されるビデオ信号を1フレームずつ
フレームメモリ55に書き込めるように、コントローラ
60がビデオ信号と同期しながらフレームメモリ55の
書き込みアドレスのコントロールを行うようになる。
In this case, in order to record an image of one screen taken by the color TV camera 53 as a still video camera in the frame memory 55, the video signals repeatedly sent from the color TV camera 53 are frame-by-frame in the frame memory 55. , The controller 60 controls the write address of the frame memory 55 in synchronization with the video signal.

【0065】そして、このようにしてフレームメモリ5
5上に記録された画像に対し、コントローラ60のアド
レスコントロールに従って肌色検出部62での肌色と背
景色検出部64による背景部の色の検出が行われる。
Then, in this way, the frame memory 5
For the image recorded on the image No. 5, the flesh color detecting section 62 detects the flesh color and the background color detecting section 64 detects the color of the background section according to the address control of the controller 60.

【0066】この場合、肌色検出部62は、例えば日本
人の標準的な肌色と思われる色を(R0 ,G0 ,B0 )
として、肌色(R0 ±Δr,G0 ±Δg,B0 ±Δb)
を設定し(これら色データ値は、予めキーボード61か
ら入力される。)、この色の範囲にある色点をすべて検
出する。
In this case, the flesh color detecting unit 62 determines, for example, a color considered to be a standard Japanese flesh color (R0, G0, B0).
As skin color (R0 ± Δr, G0 ± Δg, B0 ± Δb)
Is set (these color data values are input from the keyboard 61 in advance), and all the color points in this color range are detected.

【0067】また、背景色検出部64は、明らかに背景
と思われる部分(例えば右端上または左端上部分)の色
を数点サンプリングし、それらの色データ値の平均値を
コントローラ60にて算出し、その色を(R0 ´,G0
´,B0 ´)とするとともに、この色を基に背景の色を
(R0 ´±Δr´,G0 ´±Δg´,B0 ´±Δb´)
と設定し、この色の範囲にある色点をすべて検出する。
Further, the background color detecting section 64 samples several colors of a portion (for example, the upper right end or the upper left end) which is apparently the background, and the controller 60 calculates the average value of these color data values. The color (R0 ', G0
′, B0 ′), and based on this color, the background color is (R0 ′ ± Δr ′, G0 ′ ± Δg ′, B0 ′ ± Δb ′)
Is set, and all color points within this color range are detected.

【0068】なお、顔画像の各色のヒストグラムをとっ
た場合、背景部分の色点が最も多く抽出されると思われ
る。したがって、そのヒストグラムをコントローラ60
で計算し、ヒストグラムが最大となるところを中心と
し、その色を(R0 ´,G0 ´,B0 ´)として、ある
範囲(R0 ´±Δr´,G0 ´±Δg´,B0 ´±Δb
´)にある色点をすべて検出するようにしてもよい。ま
た、上述では、RGB色空間にて色の検出を行ったが、
例えばLUV色空間などでの色相を使った色の検出を行
うことも可能である。
When the histogram of each color of the face image is taken, it seems that the most color points in the background portion are extracted. Therefore, the histogram is calculated by the controller 60.
And the color is (R0 ', G0', B0 '), and the range is (R0' ± Δr ', G0' ± Δg ', B0' ± Δb).
You may make it detect all the color points in ′). Further, in the above, the color detection is performed in the RGB color space,
For example, it is possible to detect a color using a hue in the LUV color space or the like.

【0069】肌色検出部62での検出結果は、肌色領域
重心位置座標演算部63に送られる。この場合、肌色領
域重心位置座標演算部63での肌色の重心位置座標(x
a ,ya )の算出は次のようにして行われる。
The detection result of the skin color detecting section 62 is sent to the skin color area barycentric position coordinate calculating section 63. In this case, the skin color center of gravity position coordinates calculation unit 63 calculates the skin color center of gravity position coordinates (x
The calculation of a, ya) is performed as follows.

【0070】ここで、肌色検出部62により検出した肌
色の画像領域内にある色点の全ドット数をP、垂直方向
での1ライン上にある肌色の色点の数をpx とすると、
そのラインでのx座標をxa として、xa は xa =Σ(px ・x)/P で求められる。一方、y座標のya についても同様にし
て行われる。
Here, if the total number of dots of the color points in the image area of the skin color detected by the skin color detection unit 62 is P, and the number of the skin color points on one line in the vertical direction is px,
With the x coordinate on that line as xa, xa can be calculated by xa = Σ (px.x) / P. On the other hand, the same is done for ya on the y coordinate.

【0071】これが、肌色の画像領域の重心位置座標
(xa ,ya )の算出であるが、背景色領域重心位置座
標演算部65における背景部の背景色の画像領域の重心
位置座標(xb ,yb )の算出も上述したと同様にして
実行される。
This is the calculation of the barycentric position coordinates (xa, ya) of the skin color image area. The barycentric position coordinates (xb, yb) of the background color image area of the background portion in the background color area barycentric position coordinate calculating unit 65 are calculated. ) Is also calculated in the same manner as described above.

【0072】次に、重み係数Wa 67と重み係数Wb 6
8が以下のようにして求められる。この場合、図6に示
すようなフレームメモリ55内の画像データ70をコン
トローラ60でアドレスコントロールしながら肌色検出
部62にて読取った顔部画像における肌色の画像領域7
1内にある色点の全ドット数をPa 、同様に背景色検出
部64にて読取った背景部の背景色の画像領域72内に
ある色点の全ドット数をPb とすると、これらデータ値
Pa およびPb をコントローラ60に送る。
Next, the weight coefficient Wa 67 and the weight coefficient Wb 6
8 is obtained as follows. In this case, the skin color image area 7 in the face image read by the skin color detecting unit 62 while the image data 70 in the frame memory 55 as shown in FIG.
Let Pa be the total number of dots of color points within 1 and Pb be the total number of dots of color points within the background color image area 72 of the background portion read by the background color detection unit 64. Send Pa and Pb to controller 60.

【0073】コントローラ60では、Pb をPa で割っ
た商をCとして演算し、その値をコントローラ60に一
時記憶する。コントローラ60には、予めキーボード6
1にて入力したしきい値Dがあり、コントローラ60に
てCとDを比較する。この時、0<C≦DならばWa >
Wb とし、C>DならばWa <Wb として、重み係数W
a 、Wb をコントローラ60にて算出する。そして、こ
の算出したWa 、Wbをそれぞれ重み係数Wa 67、重
み係数Wb 68に転送する。ここで用いられる式は以下
の通りである。 Wa =D・Pa /(D・Pa +Pb ) Wb =Pb /(D・Pa +Pb )
In the controller 60, the quotient obtained by dividing Pb by Pa is calculated as C, and the value is temporarily stored in the controller 60. The controller 6 includes a keyboard 6 in advance.
There is the threshold value D input in 1, and the controller 60 compares C and D. At this time, if 0 <C ≦ D, Wa>
Wb, and if C> D, then Wa <Wb, and the weighting factor W
The controller 60 calculates a and Wb. Then, the calculated Wa and Wb are transferred to the weight coefficient Wa 67 and the weight coefficient Wb 68, respectively. The formula used here is as follows. Wa = D * Pa / (D * Pa + Pb) Wb = Pb / (D * Pa + Pb)

【0074】なお、フレームメモリ55内の画像データ
をコントローラ60にてアドレスコントロールして全画
素数をカウントし、その値をPc として、コントローラ
60にてPb をPc で割って商をEとして演算し、上記
と同様にしてWa 、Wb をコントローラ60にて算出す
るようにしてもよい。ここでは、前者の方法を用いてい
る。次に、人物画像中心位置座標演算部66での人物画
像の中心の位置座標(xc,yc )の算出が実行され
る。
The controller 60 address-controls the image data in the frame memory 55 to count the total number of pixels, and the controller 60 calculates Pc by dividing Pb by Pc and E as the quotient. Alternatively, Wa and Wb may be calculated by the controller 60 in the same manner as described above. Here, the former method is used. Next, the position coordinate (xc, yc) of the center of the person image is calculated by the person image center position coordinate calculation unit 66.

【0075】この場合、TVカメラ51から取り込んだ
画像の水平方向の幅Lを算出する。図7に示すように便
宜的に撮り込んだ画像の左上角および右下角の座標を
(x0,y0 )、(x1 ,y1 )とする。また、撮り込
んだ画像をフレームメモリ55上のアドレスに対応させ
て、コントローラ60にてアドレスコントロールしなが
ら画像データの最初の水平方向の1ラインをスキャン
し、画像データの有無を検出する。その時、最初に検出
した画像データの座標値を(x0 ,y0 )とし、人物画
像中心位置座標演算部66にその値を入力する。また、
1ラインをスキャンして画像データが検出できなくなる
最初の座標値をx1 ´として、コントローラ60にて右
下角のx座標の値x1 を以下の式にて算出する。そし
て、その座標値を人物画像中心位置座標演算部66に入
力する。 x1 =x1 ´−1
In this case, the horizontal width L of the image captured from the TV camera 51 is calculated. As shown in FIG. 7, the coordinates of the upper left corner and the lower right corner of the image photographed for convenience are set to (x0, y0) and (x1, y1). Further, the captured image is made to correspond to an address on the frame memory 55, and the first horizontal line of the image data is scanned while the address is controlled by the controller 60 to detect the presence or absence of the image data. At that time, the coordinate value of the image data detected first is set to (x0, y0), and the value is input to the person image center position coordinate calculating section 66. Also,
With the first coordinate value at which one line is scanned and image data cannot be detected as x1 ', the controller 60 calculates the value x1 of the x coordinate of the lower right corner by the following formula. Then, the coordinate values are input to the person image center position coordinate calculation unit 66. x1 = x1'-1

【0076】一方、右下角のy座標の値y1 の算出は、
右下角のx座標値x1 を算出した後、次のようにして行
う。撮り込んだ画像データをフレームメモリ55のアド
レスに対応させてコントローラ60にてアドレスコント
ロールしながら、最初に検出した画像データの座標より
垂直方向に1ラインをスキャンさせ、画像データが検出
できなくなる最初の座標値をy1 ´としてコントローラ
60にて右下角のy座標値y1 を以下の式にて算出す
る。そして、この座標値を人物画像中心位置座標演算部
66に入力する、 y1 =y1 ´−1
On the other hand, the value y1 of the y coordinate of the lower right corner is calculated by
After the x-coordinate value x1 of the lower right corner is calculated, it is performed as follows. The address of the captured image data is controlled by the controller 60 in correspondence with the address of the frame memory 55, and one line is scanned in the vertical direction from the coordinates of the image data detected first, and the first image data cannot be detected. With the coordinate value as y1 ′, the controller 60 calculates the y coordinate value y1 at the lower right corner by the following formula. Then, the coordinate values are input to the person image center position coordinate calculation unit 66, y1 = y1'-1

【0077】この入力された2つの座標値(x0 ,y0
)(x1 ,y1 )から人物画像中心位置座標演算部6
6にて水平方向の幅Lを算出する。その式は以下の通り
である。 L=x1 −x0 +1 また、画像の垂直方向の幅についても同様にして算出す
る。
These two input coordinate values (x0, y0
) (X1, y1) to the human image center position coordinate calculation unit 6
In step 6, the horizontal width L is calculated. The formula is as follows: L = x1−x0 + 1 The width of the image in the vertical direction is calculated in the same manner.

【0078】次に、人物画の中心の位置(xc ,yc )
を算出する。人物画像中心位置座標演算部66に入力さ
れた肌色および背景部の各画像領域の重心位置(xa ,
ya)(xb ,yb )は、図8に示すように取り込んだ
画像の垂直方向の中心線をk−k´としたとき、一般に
はk−k´を中心として並存する位置関係にある。そこ
で、一旦コントローラ60に座標データ値(xb ,yb
)を転送し、k−k´を中心として(xa ,ya )が
ある側に対称移動させる計算をする。その座標値を(x
b ´,yb ´)とし、その座標データ値を再度人物画像
中心位置座標演算部66に入力する。ここで、xb ´は
以下の式で算出する。 xb ´=L−xb
Next, the position of the center of the portrait (xc, yc)
To calculate. The center of gravity (xa, xa,
As shown in FIG. 8, ya) (xb, yb) generally has a positional relationship of coexisting about kk 'when the center line in the vertical direction of the captured image is kk'. Therefore, the controller 60 is first sent to the coordinate data value (xb, yb
) Is transferred, and calculation is performed to move symmetrically around kk 'to the side having (xa, ya). The coordinate value is (x
b ′, yb ′), and the coordinate data values are input again to the person image center position coordinate calculation unit 66. Here, xb 'is calculated by the following formula. xb '= L-xb

【0079】そして、この座標値(xb ´,yb ´)お
よび(xa ,ya )を以下の式に代入することにより、
人物画像の中心の位置座標(xc ,yc )を人物画像中
心位置座標演算部66で演算し、その座標値を人物画像
切り出し部69に転送する。 xc =(Wa ・xa +Wb ・(L−xb ´))/(Wa +Wb ) また、yc も上述と同様にして算出する。ただし、yc
の算出の場合は、顔画面の毛髪部が切れないように考慮
してwb を負にする必要がある。次に、画像の切り出し
について説明する。ここでは、フレームメモリ55内の
図9に示す画像データ70中で肌色領域71に相当する
顔画像を切り出す場合を取り上げる。
Then, by substituting the coordinate values (xb ', yb') and (xa, ya) into the following equation,
The position coordinate (xc, yc) of the center of the person image is calculated by the person image center position coordinate calculation unit 66, and the coordinate value is transferred to the person image cutout unit 69. xc = (Wa * xa + Wb * (L-xb ')) / (Wa + Wb) Also, yc is calculated in the same manner as described above. However, yc
In the calculation of w, it is necessary to make wb negative so as not to cut the hair part of the face screen. Next, the clipping of the image will be described. Here, the case where the face image corresponding to the skin color area 71 in the image data 70 shown in FIG. 9 in the frame memory 55 is cut out will be taken up.

【0080】人物画像中心位置座標演算部66で算出し
た人物画像の中心の位置座標(xc,yc )は、人物画
像切り出し部69に送られる。人物画像切り出し部69
では、この座標値を中心としてx方向およびy方向に同
じL´/2幅だけ画像領域を切り出す命令をフレームメ
モリ55に送出する。この場合、垂直の幅は、L´=y
1 −y0 +1とする。そして、フレームメモリ55のア
ドレスを画像領域に対応させて、xc −(L´/2)か
らxc +(L´/2)までのy0 についてアドレスをコ
ントロールしながらフレームメモリ55からデータを取
り出す。
The position coordinates (xc, yc) of the center of the person image calculated by the person image center position coordinate calculating section 66 are sent to the person image cutting section 69. Portrait image cropping unit 69
Then, a command for cutting out the image area by the same L '/ 2 width in the x direction and the y direction centering on these coordinate values is sent to the frame memory 55. In this case, the vertical width is L '= y
1-y0 + 1. Then, the address of the frame memory 55 is made to correspond to the image area, and the data is taken out from the frame memory 55 while controlling the addresses of y0 from xc- (L '/ 2) to xc + (L' / 2).

【0081】次に、xc −(L´/2)からxc +(L
´/2)までをy0 の次のラインからy1 についてアド
レスをコントロールしながらフレームメモリ55からデ
ータを取り出す。そして、このようにして取り出した人
物画像データは外部メモリ70に送られ記録保存され
る。
Next, from xc- (L '/ 2) to xc + (L
Up to '/ 2), data is taken out from the frame memory 55 while controlling the address for y1 from the line next to y0. The person image data extracted in this way is sent to the external memory 70 and recorded and stored.

【0082】従って、このようにすれば、算出した顔画
像の肌色領域および背景部の背景色の色領域の重心の位
置関係から、それぞれの重心に重み係数を乗じて人物画
像の中心の位置座標を算出し、人物画像を切り出すよう
にしている。これにより、例えば、重み係数をWa =
0.6、WB =0.4とした場合、顔画像の毛髪部が左
右どちらかに片寄っている場合に起こる顔位置のズレを
考慮した人物画像の中心の位置座標を算出できることに
なる。
Therefore, in this way, the position coordinates of the center of the person image are calculated by multiplying the respective gravity centers by the weighting factors from the calculated positional relationship of the gravity centers of the skin color area of the face image and the background color area of the background portion. Is calculated and the person image is cut out. Thereby, for example, the weighting factor is Wa =
When 0.6 and WB = 0.4, the position coordinates of the center of the human image can be calculated in consideration of the displacement of the face position that occurs when the hair portion of the face image is offset to the left or right.

【0083】また、前述したように2つの色領域の重心
に重み係数を乗じて人物画像の中心座標を算出している
ことから、例えば、重み係数をWa =1、WB =0とし
て計算すれば、顔部画像の肌色領域の重心が人物画像の
中心座標として処理するように構成することもできる。
Since the center coordinates of the human image are calculated by multiplying the center of gravity of the two color areas by the weighting factor as described above, for example, if the weighting factor is Wa = 1 and WB = 0. The center of gravity of the skin color area of the face image may be processed as the center coordinates of the person image.

【0084】なお、切り出す画像の水平方向の幅と垂直
方向の幅は、場合によってそれぞれ違う幅に設定し、そ
の幅で切り出してもよい。つまり、正方形に切り出すだ
けでなく縦長や横長の矩形領域に切り出すことも可能で
ある。また、上記のように撮り込んだ画像から重み係数
を自動的に算出し、人物画像の中心位置座標を算出して
いるが、重み係数を任意の値にして演算処理することも
できる。その場合は、キーボード61により重み係数W
a 、Wb を入力することにより人物画像の中心位置座標
が算出できるようになる。
The horizontal width and the vertical width of the image to be cut may be set to different widths depending on the case, and the cut-out may be performed. That is, it is possible to cut out not only a square shape but also a vertically or horizontally long rectangular area. Further, as described above, the weighting factor is automatically calculated from the captured image and the center position coordinates of the human image are calculated, but the weighting factor may be set to an arbitrary value for calculation processing. In that case, the weighting factor W is set by the keyboard 61.
By inputting a and Wb, the center position coordinates of the person image can be calculated.

【0085】この結果として、顔画像撮影時に、被撮影
者がある程度モニタTVの真ん中に来るように撮影すれ
ば、後は、自動的に顔画面の位置を画面中央部にくるよ
うに修正処理され、失敗のないIDカード用の顔画像が
生成されるとともに記録保存できる。また、顔画面の毛
髪部が左右どちらかに偏っている場合に起こる顔位置の
ズレも排除できる。
As a result, when the face image is photographed so that the person to be photographed is located in the middle of the monitor TV to some extent, after that, the face screen position is automatically corrected so as to come to the center of the screen. A face image for an ID card that does not fail can be generated and recorded and saved. Further, it is possible to eliminate the displacement of the face position that occurs when the hair portion of the face screen is biased to the left or right.

【0086】[0086]

【発明の効果】本発明によれば撮像手段で撮像された画
像より判別された顔画像領域についてのみデータ圧縮処
理が実行され、背景画像の領域については、予め背景画
像領域の部分データを基に生成された代表圧縮データで
置き換えられるようになるので、背景部に要するデータ
量を少なくできて1画面当たりの圧縮画像データを最小
限にすることができ、これにより多数のID顔画像をメ
モリ容量を増やすことなく記録保存できる。また、こう
して生成された圧縮画像データは、他のシステムでも適
用できるので、互換性を持たせて顔画像の圧縮画像デー
タを利用することができるようになる。
According to the present invention, the data compression processing is executed only for the face image area discriminated from the image picked up by the image pickup means, and the background image area is preliminarily based on the partial data of the background image area. Since it can be replaced with the generated representative compressed data, the amount of data required for the background portion can be reduced and the compressed image data per screen can be minimized. As a result, a large number of ID face images can be stored in the memory. Records can be saved without increasing. Further, since the compressed image data thus generated can be applied to other systems, it becomes possible to use the compressed image data of the face image with compatibility.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例の概略構成を示す図。FIG. 1 is a diagram showing a schematic configuration of a first embodiment of the present invention.

【図2】第1実施例を説明するための図。FIG. 2 is a diagram for explaining the first embodiment.

【図3】第1実施例を説明するための図。FIG. 3 is a diagram for explaining the first embodiment.

【図4】本発明の第2実施例の概略構成を示す図。FIG. 4 is a diagram showing a schematic configuration of a second embodiment of the present invention.

【図5】本発明の第3実施例の概略構成を示す図。FIG. 5 is a diagram showing a schematic configuration of a third embodiment of the present invention.

【図6】第3実施例を説明するための図。FIG. 6 is a diagram for explaining a third embodiment.

【図7】第3実施例を説明するための図。FIG. 7 is a diagram for explaining the third embodiment.

【図8】第3実施例を説明するための図。FIG. 8 is a diagram for explaining the third embodiment.

【図9】第3実施例を説明するための図。FIG. 9 is a diagram for explaining the third embodiment.

【図10】従来の一例を説明するための図。FIG. 10 is a diagram for explaining a conventional example.

【図11】従来の他の例を説明するための図。FIG. 11 is a diagram for explaining another conventional example.

【符号の説明】[Explanation of symbols]

21、51…人物、22、52…背景部、23、53…
カラーTVカメラ、24、54…AD変換器、25、5
5…フレームメモリ、26、56…DA変換器、27、
57…出力信号変換部、28、58…TVモニタ、2
9、59…ビデオプリンタ、30、60…コントロー
ラ、31、61…キーボード、32…メモリアドレスコ
ントロール部、33…画像処理部、34…DCT処理
部、35…量子化部、36…符号化部、37…顔部・背
景部領域抽出部、38…領域判別部、39…データメモ
リ、40…領域別圧縮データ選択部、41…スイッチ
部、42…多重化部、43…外部メモリ、45…第2の
データメモリ、46…第3のデータメモリ、47…代表
データ判別部、48…圧縮データ選択部、49…スイッ
チ部、62…肌色検出部、63…肌色領域重心位置座標
演算部、64…背景色検出部、65…背景色領域重心位
置座標演算部、66…人物画像中心位置座標演算部、6
7…重み係数Wa 、68…重み係数Wb 、69…人物画
像切り出し部、70…外部メモリ。
21, 51 ... Person, 22, 52 ... Background part, 23, 53 ...
Color TV camera, 24, 54 ... AD converter, 25, 5
5 ... Frame memory, 26, 56 ... DA converter, 27,
57 ... Output signal converter, 28, 58 ... TV monitor, 2
9, 59 ... Video printer, 30, 60 ... Controller, 31, 61 ... Keyboard, 32 ... Memory address control section, 33 ... Image processing section, 34 ... DCT processing section, 35 ... Quantization section, 36 ... Encoding section, 37 ... Face / background area extraction section, 38 ... Area discrimination section, 39 ... Data memory, 40 ... Area-specific compressed data selection section, 41 ... Switch section, 42 ... Multiplexing section, 43 ... External memory, 45 ... 2 data memory, 46 ... Third data memory, 47 ... Representative data discriminating section, 48 ... Compressed data selecting section, 49 ... Switch section, 62 ... Skin color detecting section, 63 ... Skin color area barycentric position coordinate calculating section, 64 ... Background color detection unit, 65 ... Background color area barycentric position coordinate calculation unit, 66 ... Portrait image center position coordinate calculation unit, 6
7 ... Weighting factor Wa, 68 ... Weighting factor Wb, 69 ... Portrait image cutout unit, 70 ... External memory.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ID用顔画像を撮像する撮像手段と、 この撮像手段で撮像された画像より顔画像と背景画像の
各領域を判別する領域判別手段と、 この領域判別手段で判別された背景画像領域の部分デー
タを圧縮して代表圧縮データを作成する手段と、 前記領域判別手段で判別された前記顔画像領域について
はデータ圧縮処理を実行し前記背景画像領域については
前記代表圧縮データで置き換える手段と、 この手段より得られた各データから1画面の圧縮画像デ
ータを生成し格納する記憶手段とを具備したことを特徴
とするIDフォトシステム。
1. An image pickup means for picking up an ID face image, an area discriminating means for discriminating each area of the face image and the background image from the image picked up by the image pickup means, and a background discriminated by the area discriminating means. A means for compressing partial data of the image area to create representative compressed data; and a data compression process for the face image area discriminated by the area discriminating means and replacing the background image area with the representative compressed data. An ID photo system comprising: a means and a storage means for generating and storing one screen of compressed image data from each data obtained by the means.
JP4159656A 1992-06-18 1992-06-18 Id photo system Withdrawn JPH066747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4159656A JPH066747A (en) 1992-06-18 1992-06-18 Id photo system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4159656A JPH066747A (en) 1992-06-18 1992-06-18 Id photo system

Publications (1)

Publication Number Publication Date
JPH066747A true JPH066747A (en) 1994-01-14

Family

ID=15698475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4159656A Withdrawn JPH066747A (en) 1992-06-18 1992-06-18 Id photo system

Country Status (1)

Country Link
JP (1) JPH066747A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236497A (en) * 2000-01-25 2001-08-31 Eastman Kodak Co Method for automatically forming cropped and zoomed deformation of photographic image
US7787025B2 (en) 2001-09-18 2010-08-31 Ricoh Company, Limited Image pickup device that cuts out a face image from subject image data
JP2011134117A (en) * 2009-12-24 2011-07-07 Canon Inc Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236497A (en) * 2000-01-25 2001-08-31 Eastman Kodak Co Method for automatically forming cropped and zoomed deformation of photographic image
US7787025B2 (en) 2001-09-18 2010-08-31 Ricoh Company, Limited Image pickup device that cuts out a face image from subject image data
US7903163B2 (en) 2001-09-18 2011-03-08 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7920187B2 (en) 2001-09-18 2011-04-05 Ricoh Company, Limited Image pickup device that identifies portions of a face
US7973853B2 (en) 2001-09-18 2011-07-05 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face
US7978261B2 (en) 2001-09-18 2011-07-12 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US8421899B2 (en) 2001-09-18 2013-04-16 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2011134117A (en) * 2009-12-24 2011-07-07 Canon Inc Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program

Similar Documents

Publication Publication Date Title
US6735341B1 (en) Image processing device and method and recording medium for recording image processing program for same
JP2876258B2 (en) Digital electronic still camera
JP4177750B2 (en) Imaging apparatus and method for determining important regions in archive images
DE69838653T2 (en) Method and apparatus for compressing and encoding image data representing a color image
US20040095477A1 (en) ROI setting method and apparatus, electronic camera apparatus, program, and recording medium
JPH053550A (en) Device and method for encoding image data
US20010012397A1 (en) Image processing apparatus and method
US5463419A (en) Image signal processing device for thinning images
US7146055B2 (en) Image processing decompression apparatus and method of using same different scaling algorithms simultaneously
JPH066747A (en) Id photo system
JP2000013605A (en) Image processor, method and record medium recording image processing program
JPH03230691A (en) Digital electronic still camera
JPH05336374A (en) Image information compressing device
JP2000013612A (en) Device and method for image processing and recording medium recorded with image processing program
KR20100011288A (en) Method of compressing images, computer-readable medium storing program to perform the same and apparatus of photographing digital images
JP2000013613A (en) Image processor, method and record medium recording image processing program
JP4235592B2 (en) Image processing method and image processing apparatus
JP3109855B2 (en) Electronic camera, image signal compression apparatus and method
JP2965779B2 (en) Electronic still camera device
JP3038022B2 (en) Electronic camera device
JPH07336723A (en) Image recorder
JP4078136B2 (en) Image recognition method, image recognition apparatus, and computer program
JP2994437B2 (en) Digital electronic still camera and image attribute determination method
JP3055954B2 (en) Electronic still camera
JP4078135B2 (en) Image recognition method, image recognition apparatus, and computer program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990831