[go: up one dir, main page]

JP2000322588A - Image processing apparatus and method - Google Patents

Image processing apparatus and method

Info

Publication number
JP2000322588A
JP2000322588A JP11126308A JP12630899A JP2000322588A JP 2000322588 A JP2000322588 A JP 2000322588A JP 11126308 A JP11126308 A JP 11126308A JP 12630899 A JP12630899 A JP 12630899A JP 2000322588 A JP2000322588 A JP 2000322588A
Authority
JP
Japan
Prior art keywords
image
face
graphic
face area
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11126308A
Other languages
Japanese (ja)
Other versions
JP3810943B2 (en
Inventor
Osamu Yamaguchi
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP12630899A priority Critical patent/JP3810943B2/en
Publication of JP2000322588A publication Critical patent/JP2000322588A/en
Application granted granted Critical
Publication of JP3810943B2 publication Critical patent/JP3810943B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 画面内で顔が移動しても、その部品位置に応
じて、図形の位置、大きさを決定し、追従して合成を行
うことで、容易に様々な印象の異なる顔合成画像を得る
ことができる画像処理装置を提供する。 【解決部】 画像を入力する画像入力部100と、画像
中から顔領域を検出する顔領域検出部200と、顔の部
品位置を検出する顔部品検出部300と、入力画像に重
ね合わせるための所定の図形や画像を決定する図形計算
部500と、入力画像に対し顔領域や顔部品の位置、大
きさに応じた図形や画像の埋め込みを行う画像合成部6
00と、合成された画像を出力する画像出力部400か
らなる。
(57) [Summary] [Problem] Even if a face moves on a screen, the position and size of a figure are determined in accordance with the position of the part, and synthesis is performed by following the figure. And an image processing apparatus capable of obtaining a different face composite image. SOLUTION: An image input unit 100 for inputting an image, a face region detection unit 200 for detecting a face region from an image, a face component detection unit 300 for detecting a position of a face component, and a A graphic calculation unit 500 for determining a predetermined graphic or image, and an image synthesizing unit 6 for embedding a graphic or image according to the position and size of a face area or a face part in an input image
00 and an image output unit 400 that outputs a synthesized image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術の分野】本発明は、画像に図形等を
合成する画像処理装置及びその方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method for synthesizing a graphic or the like with an image.

【0002】[0002]

【従来の技術】顔画像処理を利用したシステムとして様
々なものがある。
2. Description of the Related Art There are various systems using face image processing.

【0003】例えば、存在検知、個人認証、視線・顔向
き検出等の高度な利用法がある。また、顔領域に着目し
た上で、画像に変形を加えることを主目的としたものと
して以下のものが挙げられる。
For example, there are advanced uses such as presence detection, personal authentication, gaze / face direction detection, and the like. In addition, the followings are mainly intended to deform an image while focusing on a face area.

【0004】1.めがね着せ替えシステム 2.動画編集システム 3.髪型着せ替えシステム 4.カップル子供シミュレーションシステム 5.写真シール製造器(いわゆるプリクラ(商標))の
フレーム装飾 6.SIGGRAPH97で提案された顔変形システム
等がある。
[0004] 1. Glasses changing system 2. Video editing system 3. Hairstyle change system 4. 4. Couple child simulation system 5. Frame decoration of photo sticker making machine (so-called Purikura (trademark)) There is a face deformation system proposed in SIGGRAPH97, and the like.

【0005】1.では、特徴点を手動で指定をし、静止
画に対する処理のものが製品化され、眼鏡装用シミュレ
ーション装置(特開平6−139318号)のような公
知例がある。特徴点の自動化についても、特許が出願さ
れている。
[0005] 1. In this case, a feature point is manually designated, and a process for a still image is commercialized. There is a known example such as a spectacle wearing simulation apparatus (Japanese Patent Laid-Open No. 6-139318). Patents have also been filed for automation of feature points.

【0006】2.は、動画に対する処理で、手動で対応
点等を指定するシステムがテレビ局等で用いられ、放送
に利用されている。なお、モーフィングについては、静
止画用のモーフィングソフトについても様々なものが市
販されている。
[0006] 2. Is a process for moving images, and a system for manually designating corresponding points and the like is used in television stations and the like, and is used for broadcasting. As for morphing, various morphing software for still images are commercially available.

【0007】3.は、画像処理装置(特開平8−329
278号)で開示されているように、顔の輪郭を検出
し、髪の部分を領域として求めた後、他の髪型を重ねる
というものである。
[0007] 3. Is an image processing apparatus (Japanese Patent Laid-Open No. 8-329)
No. 278), the face contour is detected, the hair part is determined as an area, and then another hairstyle is superimposed.

【0008】4.は、2人の人物、もしくは人物と他の
画像とのモーフィングを行い、例えば2人の人物の子供
の画像を合成する装置であり、商品化されている。顔部
品の検出はハーフミラーに表示された位置に顔を合わせ
て検出を簡略化している。
[0008] 4. Is a device that morphs two persons or a person and another image and synthesizes, for example, an image of a child of the two persons, and has been commercialized. The detection of the face parts is simplified by matching the face to the position displayed on the half mirror.

【0009】5.については、顔の位置は特定しておら
ず、画像の枠に装飾を施すことを主目的としている。ま
た特定の領域に顔の位置を自分で調整してフレームの位
置に移動する必要がある。
[0009] 5. With regard to, the position of the face is not specified, and the main purpose is to decorate the frame of the image. In addition, it is necessary to adjust the position of the face to a specific area and move to the position of the frame.

【0010】6.については、文献[Darrell,T.Gordo
n,F.,Woodfill W.,Baker,H.:′′A MagicMorphin Mirro
r′′,SIGGRAPH′97 Visual Proceedings,ACM Press,19
97]で提案され、色、距離情報とパターン情報を組み合
わせて人物の顔位置を見つけ、その顔位置の画像を変形
させることにより、顔の形状が曲げられたような効果を
表示する装置である。
[0010] 6. Is described in the literature [Darrell, T. Gordo
n, F., Woodfill W., Baker, H.: '' A MagicMorphin Mirro
r '', SIGGRAPH'97 Visual Proceedings, ACM Press, 19
97], a device that finds the position of a person's face by combining color, distance information and pattern information, and deforms the image of the face position to display an effect as if the shape of the face was bent. .

【0011】それぞれの用途、特徴として、1,3につ
いては、髪型、めがね等のファッションを検討するため
のシステムである。2,4,6は画像を局所的に変形さ
せ、映像的な効果を向上させることを目的としたシステ
ムである。5は画像認識を必要とせず、自動的に検出を
行うものではない。
[0011] Regarding their uses and features, 1 and 3 are systems for studying fashion such as hairstyles and glasses. Reference numerals 2, 4, and 6 denote systems for locally deforming an image to improve a visual effect. No. 5 does not require image recognition and does not automatically detect.

【0012】[0012]

【発明が解決しようとする課題】本発明はこれらの装置
には該当せず、それぞれ本発明の次の目的を達成するに
は機能的に不十分であった。
The present invention does not fall under these devices, and each was functionally inadequate to achieve the following objects of the present invention.

【0013】すなわち、本発明は、主として動画を対象
とし、位置や大きさが多様に変化する顔領域に追随し、
自動的に顔領域や顔部品を検出する機能を利用して、顔
の領域の位置、大きさ、また、顔部品の位置大きさにあ
わせて、顔領域の様々な部分に、鮮やかな色彩を持つ図
形表示を行うことで、画像中の人物を瞬時に変装させた
り、装飾したりすることを目的としたものである。
That is, the present invention mainly targets a moving image and follows a face region in which the position and the size are variously changed.
Using the function to automatically detect the face area and face parts, vivid colors are applied to various parts of the face area according to the position and size of the face area and the position and size of the face parts. The purpose of this is to instantly disguise or decorate a person in an image by performing graphic display.

【0014】また、自動的に顔の検出を行うために、利
用者の手を煩わすことがなく、利用者が移動しても、移
動した画面位置で同じ効果の合成画像が得られることも
目的としている。
[0014] Further, since the face is automatically detected, the synthesized image having the same effect can be obtained at the moved screen position even if the user moves, without bothering the user. And

【0015】これにより、本発明は、アミューズメント
としての効果が大きく、瞬時に印象の異なる様々な人物
の変装画像を自動的に得ることが可能になる画像処理装
置及びその方法を提供する。
Accordingly, the present invention provides an image processing apparatus and a method thereof which have a great effect as an amusement and which can automatically obtain disguise images of various persons having different impressions instantaneously.

【0016】[0016]

【課題を解決するための手段】請求項1の発明は、画像
を入力する画像入力手段と、前記画像入力手段によって
入力した画像中の対象者の顔領域を検出する顔領域検出
手段と、前記顔領域検出手段によって検出した顔領域か
ら目、鼻等の顔部品の位置を検出する顔部品位置検出手
段と、前記顔領域検出手段によって検出した顔領域、ま
たは、前記顔部品位置検出手段によって検出した顔部品
の位置や大きさに応じて、前記画像入力手段によって入
力した画像に相当する画像に合成するための図形や画像
の内容、位置を決定するか、または、前記相当する画像
を変換する内容、位置を決定する図形計算手段と、前記
画像入力手段によって入力した画像に対し、前記図形計
算手段によって決定した図形や画像を合成するか、また
は、前記画像入力手段によって入力した画像を前記図形
計算手段によって決定した内容で変換する画像合成手段
と、前記画像合成手段によって合成、または、変換され
た画像を出力する画像出力手段と、を有したことを特徴
とする画像処理装置である。
According to a first aspect of the present invention, there is provided an image input means for inputting an image, a face area detecting means for detecting a face area of a subject in the image input by the image input means, A face part position detecting means for detecting a position of a face part such as an eye or a nose from the face area detected by the face area detecting means; and a face area detected by the face area detecting means or detected by the face part position detecting means. In accordance with the position and size of the face part, the contents and position of a figure or image to be combined with an image corresponding to the image input by the image input means are determined, or the corresponding image is converted. A graphic calculation means for determining the contents and position, and combining the graphic or image determined by the graphic calculation means with the image input by the image input means, or Image combining means for converting an image input by a stage with contents determined by the graphic calculation means, and image output means for outputting an image combined or converted by the image combining means. Image processing device.

【0017】請求項2の発明は、前記顔領域検出手段、
または、顔部品位置検出手段は、前記画像入力手段によ
って入力した画像が動画である場合に、前記動画の前フ
レームの顔領域、または、顔部品の位置の近傍のみを探
索領域として検出を行い、前記動画の現フレームの顔領
域、または、顔部品を検出することを特徴とする請求項
1記載の画像処理装置である。
According to a second aspect of the present invention, the face area detecting means comprises:
Or, if the image input by the image input unit is a moving image, the face part position detecting means detects only the face area of the previous frame of the moving image, or only the vicinity of the position of the face part as a search area, 2. The image processing apparatus according to claim 1, wherein a face area or a face part of a current frame of the moving image is detected.

【0018】請求項3の発明は、前記図形計算手段は、
顔領域、または、顔部品の位置、顔部品の相対的な位置
関係、並びに、顔領域、または、顔部品の大きさに基づ
いて設定可能な複数の図形、または、画像等のの集合か
らなる登録図形パターン情報を保持する情報保持手段
と、前記顔領域検出手段、または、前記顔部品位置検出
手段によって検出された顔領域、または、顔部品の位置
や大きさ等の情報と、前記情報保持手段に保持された登
録図形パターン情報とを用いて、合成する図形や画像の
位置や大きさを決定する重ね合わせ位置計算手段と、を
有したことを特徴とする請求項1記載の画像処理装置で
ある。
According to a third aspect of the present invention, the graphic calculation means includes:
A face region or a position of a face part, a relative positional relationship between the face parts, and a face region or a set of a plurality of figures or images that can be set based on the size of the face part. Information holding means for holding registered figure pattern information; information on the face area detected by the face area detecting means or the face part position detecting means; 2. The image processing apparatus according to claim 1, further comprising: superposition position calculating means for determining a position and a size of a graphic or an image to be synthesized using the registered graphic pattern information held in the means. It is.

【0019】請求項4の発明は、前記情報保持手段に保
持された前記登録図形パターン情報は、追加、削除、編
集、または、交換が可能なことを特徴とする請求項3記
載の画像処理装置である。
According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the registered figure pattern information held in the information holding means can be added, deleted, edited, or exchanged. It is.

【0020】請求項5の発明は、前記図形計算手段は、
前記情報保持手段に保持された登録図形パターン情報の
中から、前記重ね合わせ位置計算手段で用いる登録図形
パターン情報を、乱数によってランダムに選択、また
は、変更する選択手段を有したことを特徴とする請求項
1記載の画像処理装置である。
According to a fifth aspect of the present invention, the graphic calculation means includes:
Selecting means for randomly selecting or changing, based on random numbers, registered figure pattern information to be used by the superposition position calculating means from among registered figure pattern information held by the information holding means; An image processing apparatus according to claim 1.

【0021】請求項6の発明は、前記画像合成手段によ
って合成された図形や画像に同期して音声を出力する音
声出力手段を有したことを特徴とする請求項1記載の画
像処理装置である。
According to a sixth aspect of the present invention, there is provided the image processing apparatus according to the first aspect, further comprising an audio output unit for outputting an audio in synchronization with the graphic or image synthesized by the image synthesizing unit. .

【0022】請求項7の発明は、前記図形計算手段は、
使用者の音声を入力する音声入力手段と、前記音声入力
手段によって入力した音声によって、前記情報保持手段
に保持された登録図形パターン情報の中から、前記重ね
合わせ位置計算手段で用いる登録図形パターン情報を選
択、または、変更する選択手段と、を有したことを特徴
とする請求項1記載の画像処理装置である。
According to a seventh aspect of the present invention, the graphic calculation means includes:
Voice input means for inputting a user's voice, and registered graphic pattern information used by the superposition position calculating means, based on the voice input by the voice input means, from among the registered graphic pattern information held in the information holding means. 2. The image processing apparatus according to claim 1, further comprising: a selection unit that selects or changes the image data.

【0023】請求項8の発明は、前記図形計算手段は、
顔領域、または、顔部品の位置、顔部品の相対的な位置
関係、並びに、顔領域、または、顔部品の大きさに基づ
いて、前記画像入力手段によって入力した画像の中から
変換する領域を決定し、前記画像合成手段は、前記図形
計算手段によって決定された前記画像の領域を所定の内
容で変換することを特徴とする請求項1記載の画像処理
装置である。
According to an eighth aspect of the present invention, the graphic calculation means includes:
Based on the face area or the position of the face part, the relative positional relationship of the face part, and the face area or the size of the face part, the area to be converted from the image input by the image input means is determined. 2. The image processing apparatus according to claim 1, wherein the image processing unit determines the image and converts the area of the image determined by the graphic calculation unit with predetermined contents.

【0024】請求項9の発明は、前記画像入力手段は、
デジタル動画像、または、デジタル静止画像を入力する
ことを特徴とする請求項1記載の画像処理装置である。
According to a ninth aspect of the present invention, the image input means includes:
2. The image processing apparatus according to claim 1, wherein a digital moving image or a digital still image is input.

【0025】請求項10の発明は、前記画像出力手段
は、デジタル動画像、または、デジタル静止画像を出力
することを特徴とする請求項1記載の画像処理装置であ
る。
The invention according to claim 10 is the image processing apparatus according to claim 1, wherein said image output means outputs a digital moving image or a digital still image.

【0026】請求項11の発明は、画像を入力する画像
入力ステップと、前記画像入力ステップによって入力し
た画像中の対象者の顔領域を検出する顔領域検出ステッ
プと、前記顔領域検出ステップによって検出した顔領域
から目、鼻等の顔部品の位置を検出する顔部品位置検出
ステップと、前記顔領域検出ステップによって検出した
顔領域、または、前記顔部品位置検出ステップによって
検出した顔部品の位置や大きさに応じて、前記画像入力
ステップによって入力した画像に相当する画像に合成す
るための図形や画像の内容、位置を決定するか、また
は、前記相当する画像を変換する内容、位置を決定する
図形計算ステップと、前記画像入力ステップによって入
力した画像に対し、前記図形計算ステップによって決定
した図形や画像を合成するか、または、前記画像入力ス
テップによって入力した画像を前記図形計算ステップに
よって決定した内容で変換する画像合成ステップと、前
記画像合成ステップによって合成、または、変換された
画像を出力する画像出力ステップと、を有したことを特
徴とする画像処理方法である。
The invention according to claim 11 is an image input step of inputting an image, a face area detecting step of detecting a face area of a subject in the image input in the image input step, and a detecting step by the face area detecting step. A face part position detection step of detecting the position of a face part such as an eye or a nose from the detected face area; and a face area detected by the face area detection step, or a face part position detected by the face part position detection step. According to the size, determine the contents and position of a figure or image to be combined with the image corresponding to the image input in the image input step, or determine the contents and position of converting the corresponding image A figure calculation step and a figure or image determined in the figure calculation step are combined with the image input in the image input step. Or an image synthesizing step of converting the image input by the image input step with the content determined by the graphic calculation step, and an image outputting step of outputting the image synthesized or converted by the image synthesizing step. And an image processing method.

【0027】請求項12の発明は、画像を入力する画像
入力機能と、前記画像入力機能によって入力した画像中
の対象者の顔領域を検出する顔領域検出機能と、前記顔
領域検出機能によって検出した顔領域から目、鼻等の顔
部品の位置を検出する顔部品位置検出機能と、前記顔領
域検出機能によって検出した顔領域、または、前記顔部
品位置検出機能によって検出した顔部品の位置や大きさ
に応じて、前記画像入力機能によって入力した画像に相
当する画像に合成するための図形や画像の内容、位置を
決定するか、または、前記相当する画像を変換する内
容、位置を決定する図形計算機能と、前記画像入力機能
によって入力した画像に対し、前記図形計算機能によっ
て決定した図形や画像を合成するか、または、前記画像
入力機能によって入力した画像を前記図形計算機能によ
って決定した内容で変換する画像合成機能と、前記画像
合成機能によって合成、または、変換された画像を出力
する画像出力機能と、を実現するプログラムを記録した
ことを特徴とする画像処理方法の記録媒体である。
According to a twelfth aspect of the present invention, there is provided an image input function for inputting an image, a face area detection function for detecting a face area of a subject in the image input by the image input function, and a face area detection function. A face part position detection function of detecting the position of a face part such as an eye or a nose from the detected face area, a face area detected by the face area detection function, or a position of the face part detected by the face part position detection function. According to the size, determine the content and position of the graphic or image to be combined with the image corresponding to the image input by the image input function, or determine the content and position of converting the corresponding image A graphic calculation function and an image input by the image input function are combined with a graphic or an image determined by the graphic calculation function, or an image is input by the image input function. A program for realizing an image synthesizing function for converting the converted image with the content determined by the graphic calculation function, and an image outputting function for outputting the image synthesized or converted by the image synthesizing function. Is a recording medium of an image processing method.

【0028】請求項13の発明は、画像に所定の図形や
画像を合成させる場合において、前記所定の図形や画像
に関する登録図形パターン情報の記録媒体であって、前
記登録図形パターン情報は、前記画像中の対象者のある
特徴点を基準として図形や画像を構成する図形構成点へ
のベクトル情報を含むことを特徴とする登録図形パター
ン情報を記録した記録媒体である。
According to a thirteenth aspect of the present invention, in the case where a predetermined figure or image is combined with an image, the recording medium of the registered figure pattern information related to the predetermined figure or image is provided. This is a recording medium on which registered graphic pattern information characterized by including vector information on graphic composing points composing a graphic or an image based on a certain characteristic point of a target person in the medium.

【0029】請求項14の発明は、前記登録図形パター
ン情報の構成が、前記登録図形パターン情報の追加、削
除、編集、または、交換が可能な構成であることを特徴
とする請求項13記載の登録図形パターン情報を記録し
た記録媒体である。
According to a fourteenth aspect of the present invention, the configuration of the registered graphic pattern information is such that the registered graphic pattern information can be added, deleted, edited, or exchanged. This is a recording medium on which registered graphic pattern information is recorded.

【0030】請求項1,11,12の発明であると、顔
位置を自動的に検出し、その画像に装飾を合成した画像
を瞬時に得ることが可能となる。
According to the first, eleventh and twelfth aspects, it is possible to automatically detect the face position and instantaneously obtain an image obtained by combining the image with the decoration.

【0031】請求項2の発明であると、顔部品位置の検
出処理が高速化でき、動画における合成が瞬時に行うこ
とが可能になる。
According to the second aspect of the present invention, the processing for detecting the position of the face part can be speeded up, and it becomes possible to instantaneously combine the moving images.

【0032】請求項3の発明であると、検出した顔領域
の位置、大きさに応じて、図形を重ねあわせることがで
き、利用者が画面内で移動しても合成パターンの位置、
大きさを追従させることを可能にする。
According to the third aspect of the present invention, figures can be superimposed in accordance with the position and size of the detected face area, and even if the user moves on the screen, the position of the combined pattern,
It is possible to follow the size.

【0033】請求項4の発明であると、様々なパターン
を複数同時に登録することができ、パターンを編集、改
良することが容易なため、利用者の好みに応じたパター
ンを設定することを可能にする。
According to the invention of claim 4, a plurality of various patterns can be registered at the same time, and it is easy to edit and improve the patterns, so that it is possible to set a pattern according to the user's preference. To

【0034】請求項5の発明であると、一定間隔で自動
的に合成パターンを変化させることができる。
According to the fifth aspect of the invention, it is possible to automatically change the combined pattern at regular intervals.

【0035】請求項6,8の発明であると、顔位置を自
動的に検出し、その画像に装飾を合成した画像を瞬時に
得られ、さらに音響的な効果を付け加えることが可能と
なる。
According to the sixth and eighth aspects of the present invention, a face position is automatically detected, and an image obtained by combining a decoration with the image can be obtained instantaneously, and it is possible to add an acoustic effect.

【0036】請求項7の発明であると、音声を入力する
ことにより、合成パターンが変化したことが容易にわか
るだけでなく、変化をより効果的に演出することが可能
になる。
According to the seventh aspect of the present invention, by inputting a voice, not only can it be easily recognized that the synthesized pattern has changed, but it is also possible to produce the change more effectively.

【0037】請求項9,10の発明の画像処理装置は、
動画、静止画像でも処理が可能であり、取り溜めておい
た画像データに対して変換可能であり、動画を電子メー
ル等につけることができる等のそれぞれの利用状況での
効果が増大する。
According to the ninth and tenth aspects of the present invention,
Processing can be performed on moving images and still images, conversion of stored image data is possible, and the effect in each use situation, such as attaching moving images to e-mail or the like, increases.

【0038】[0038]

【発明の実施の形態】以下に本発明の実施例について説
明する。
Embodiments of the present invention will be described below.

【0039】[実 施 例 1]本発明の実施例1の画
像処理装置について説明する。
[Embodiment 1] An image processing apparatus according to Embodiment 1 of the present invention will be described.

【0040】画像処理装置では、図2(a)のように、
入力された画像に対して、顔領域と顔部品の大きさ、位
置を検出し、図2(b)(c)のように、所定の図形を
検出された顔部品位置に応じて、相対的に位置、大きさ
を変え、図2(b)(c)のように、入力画像と共に重
ね合わせた表示、加工をする。これにより、表示された
内容は、認識対象となった人物があたかも瞬時に変装し
たように見せることができる。
In the image processing apparatus, as shown in FIG.
The size and the position of the face area and the face part are detected with respect to the input image, and a predetermined figure is relatively determined according to the detected face part position as shown in FIGS. 2B and 2C. Then, the display and processing are superimposed together with the input image as shown in FIGS. 2B and 2C. Thereby, the displayed content can be made to appear as if the person to be recognized is disguised instantaneously.

【0041】このような効果を狙った画像生成を行うた
めには、画像処理装置は、図1のような画像入力部10
0、顔領域検出部200、顔部品検出部300、画像出
力部400、図形計算部500、図形合成部600が必
要であり、以下、それぞれの構成要素に対して説明す
る。
In order to generate an image aiming at such an effect, the image processing apparatus is provided with an image input unit 10 as shown in FIG.
0, a face area detection unit 200, a face part detection unit 300, an image output unit 400, a graphic calculation unit 500, and a graphic synthesis unit 600 are required, and each component will be described below.

【0042】なお、画像処理装置は、例えば、カメラを
備えたパソコンで実現可能であり、各構成要素の機能を
果たすプログラムをこのパソコンにインストールして記
憶させておけばよい。また、このプログラムをFD,C
D−ROM,MO,DVD等の記録媒体に記録させてお
き、他のパソコンに移植してもよい。さらに、写真シー
ル製造器等に使用してもよい。
The image processing apparatus can be realized by, for example, a personal computer having a camera, and a program that performs the function of each component may be installed and stored in the personal computer. In addition, this program is FD, C
The program may be recorded on a recording medium such as a D-ROM, an MO, and a DVD, and may be transferred to another personal computer. Furthermore, you may use it for a photo sticker manufacturing apparatus etc.

【0043】(画像入力部100)画像入力部100
は、人物が写っている静止画像、または動画像を得るた
めのものである。基本的な構成としては図3に示すよう
に、カメラ101、フレームグラバ102からなり、人
間の顔を撮影するために用いる。入力画像は、カラー、
モノクロに限らない。
(Image Input Unit 100) Image Input Unit 100
Is for obtaining a still image or a moving image of a person. As shown in FIG. 3, the basic configuration includes a camera 101 and a frame grabber 102, and is used for photographing a human face. The input image is color,
Not limited to monochrome.

【0044】また、画像入力部100の別の構成とし
て、カメラの代わりに、TVチューナー、VCR、DV
D等でもよい。
As another configuration of the image input unit 100, a TV tuner, a VCR, a DV
D or the like.

【0045】さらに、画像入力部100の別の構成とし
て、ファイルに記録されたデジタルビデオデータやネッ
トワークを経由して得られるビデオデータを入力として
もよい。
Further, as another configuration of the image input unit 100, digital video data recorded in a file or video data obtained via a network may be input.

【0046】もちろん動画、静止画の種類を問わない。
フレームグラバ102上のメモリ103に入力画像が保
存され、それぞれの各処理部からアクセスされる。
Of course, any type of moving image and still image can be used.
The input image is stored in the memory 103 on the frame grabber 102 and is accessed from each processing unit.

【0047】(顔領域検出部200)顔領域検出部20
0は、画像入力部100から得られた画像に対して、画
像中から人物の顔領域を検出する。
(Face Area Detector 200) Face Area Detector 20
0 detects a face area of a person from an image obtained from the image input unit 100 from the image.

【0048】顔領域の検出方法として、予め収集した顔
画像から生成されたテンプレートを用いて、画像の各部
分に当てはめ、テンプレートと高い相関をもつ部分を顔
領域とする。
As a method for detecting a face area, a template generated from a previously collected face image is used to apply the method to each part of the image, and a part having a high correlation with the template is defined as a face area.

【0049】図4に示すように、顔領域検出部200
は、画像変換部201とテンプレート計算部202と領
域決定部203からなる。
As shown in FIG. 4, the face area detecting section 200
Comprises an image conversion unit 201, a template calculation unit 202, and an area determination unit 203.

【0050】画像変換部201は、入力画像がカラー画
像の場合は、モノクロ画像に変換し、さらに入力画像を
数段階の大きさに縮小し、いくつかの大きさの画像を生
成する。縮小率等はカメラのレンズ系、画角等の情報や
画像の大きさ等から、想定される顔領域の大きさを予め
判断し数段階の割合を決定しておく。
When the input image is a color image, the image conversion unit 201 converts the image into a monochrome image, further reduces the input image to several steps, and generates images of several sizes. The reduction ratio and the like are determined in advance from the information such as the lens system of the camera and the angle of view, the size of the image, etc., and the size of the assumed face area is determined in advance to determine the ratio of several steps.

【0051】テンプレート計算部202は、用意された
テンプレートを用いて、縮小画像に対し、画像をラスタ
ースキャンし、各部分画像に対してテンプレートとの類
似度を求める。類似度の計算方法としては、テンプレー
トとして、学習パターンを用いて構成された部分空間を
用いて、部分空間法[エルッキ・オヤ著,小川英光,佐
藤誠訳,“パターン認識と部分空間法”,産業図書,198
6 参照]を用いて類似度を求めてもよい。この場合、顔
に類似しているが、顔ではないような擬似顔画像のテン
プレートも用意しておき、同時に類似度を計算すること
によって、誤った領域を検出しないようにもできる。
The template calculation unit 202 raster-scans the reduced image using the prepared template, and obtains the degree of similarity between each partial image and the template. As a method of calculating similarity, a subspace method [Erkki Oya, Hidemitsu Ogawa, Makoto Satoh translation, “Pattern recognition and subspace method”, Industrial Books, 198
6] can be used to determine the similarity. In this case, a template of a pseudo face image similar to a face but not a face is also prepared, and by calculating the similarity at the same time, an erroneous area can be prevented from being detected.

【0052】領域決定部203は、各縮小画像における
各部分画像での類似度から判断して、もっとも顔らしい
と判定された領域についての情報を出力する。具体的に
は、縮小画像の縮小率、検出された場所の検出位置であ
る。テンプレートの大きさと縮小率を考慮し、元の入力
画像の大きさにあわせて、顔領域を表す矩形の大きさ
と、矩形の位置を出力とする。
The area determining section 203 outputs information on the area determined to be most likely to be a face, based on the similarity between each partial image in each reduced image. Specifically, it is the reduction ratio of the reduced image and the detection position of the detected location. Considering the size of the template and the reduction ratio, the size of the rectangle representing the face area and the position of the rectangle are output according to the size of the original input image.

【0053】(顔部品検出部300)顔部品検出部30
0は、顔領域と判定された領域について、目、鼻、口と
いった顔の部品を検出する。
(Face part detection unit 300) Face part detection unit 30
0 detects face parts such as eyes, nose, and mouth in the area determined to be a face area.

【0054】図5に示すように、顔部品検出部300
は、画像変換部301、候補点抽出部302、候補点検
証部303、候補点決定部304で構成される。
As shown in FIG. 5, the face part detecting unit 300
Is composed of an image conversion unit 301, a candidate point extraction unit 302, a candidate point verification unit 303, and a candidate point determination unit 304.

【0055】画像変換部301では、入力画像から、顔
領域検出部200によって決定された領域を注目領域と
し、その領域の濃淡値の低い部分に対して処理を行うた
めの、処理画素を決定する。
The image conversion unit 301 sets, from the input image, the region determined by the face region detection unit 200 as a region of interest, and determines a processing pixel for performing processing on a portion having a low gray value of the region. .

【0056】候補点抽出部302では、文献[福井和
広、山口修:「形状抽出とパターン照合の組合せによる
顔特徴点抽出」,電子情報通信学会論文誌(D),vol.J80
-D-II,No.8,pp2170--2177 (1997)]で述べられている
分離度フィルタを用いて円形領域の候補点を検出する。
候補は複数個の点として表される。
In the candidate point extraction unit 302, a document [Kazuhiro Fukui, Osamu Yamaguchi: "Face feature point extraction by combination of shape extraction and pattern matching", IEICE Transactions (D), vol.
-D-II, No.8, pp2170--2177 (1997)], and detects candidate points in a circular area.
Candidates are represented as multiple points.

【0057】候補点検証部303では、また候補点をパ
ターン認識手法により、各顔部品のテンプレートとの類
似性の判定する。
The candidate point verification section 303 determines the similarity of each face part with the template by using a pattern recognition method.

【0058】候補点決定部304では、候補点の位置関
係の組み合わせを用いて候補点を絞り、候補点の位置を
出力する。
The candidate point determining unit 304 narrows down the candidate points using a combination of the positional relationships of the candidate points, and outputs the positions of the candidate points.

【0059】図6を用いて説明する。This will be described with reference to FIG.

【0060】図6の351は時間Tにおける入力画像を
表し、顔領域検出部200によって顔領域を検出した結
果、その矩形領域を図6の352に示す。
Reference numeral 351 in FIG. 6 represents an input image at time T. As a result of detection of a face area by the face area detection unit 200, a rectangular area 352 is shown in FIG.

【0061】顔部品検出部300では、この矩形領域内
部について、円形領域の候補点を検出し(図6の35
3)、位置関係、パターンの類似性等を満たすような4
つの候補を選択し目鼻特徴点を得る(図6の354)。
The face part detecting section 300 detects a candidate point of a circular area inside the rectangular area (35 in FIG. 6).
3), 4 that satisfies the positional relationship, pattern similarity, etc.
One of the candidates is selected to obtain an eye-nose feature point (354 in FIG. 6).

【0062】また、本実施例では、ある入力画像に対し
て、瞳位置、鼻孔位置を検出した場合、その次のフレー
ムではその検出位置付近のみを部品の探索範囲として、
高速に部品検出を行うトラッキング探索を行う。
In this embodiment, when a pupil position and a nostril position are detected for a certain input image, only the vicinity of the detected position is set as a component search range in the next frame.
Performs a tracking search to detect parts at high speed.

【0063】図6の355は時間Tにおける入力画像を
表し、前述したような検出方法で目鼻特徴点を検出され
たとする。その後時間T+1では、再び全画面中から顔
検出、目鼻検出を行うのではなく、図6の356に示し
たように、検出した点の近傍領域の矩形の部分だけに対
して、候補点抽出部302の円形領域の候補点の検出、
候補点検証部303における、各顔部品のテンプレート
との類似性判定を行い、候補点を絞り、候補点の位置を
出力する。
In FIG. 6, reference numeral 355 denotes an input image at time T, and it is assumed that an eye / nose feature point has been detected by the above-described detection method. Then, at time T + 1, face detection and eye / nose detection are not performed again from the entire screen. As shown at 356 in FIG. 302: detection of candidate points of the circular region;
The candidate point verification unit 303 determines the similarity between each face part and the template, narrows the candidate points, and outputs the positions of the candidate points.

【0064】時間T+1の時点では、画像が図6の35
7のように別の方向を向いているように、変化していて
も、わずかな時間であれば人物の動作が少ないため、探
索範囲を前述のように絞っても、特徴点の抽出が可能と
なる。
At time T + 1, the image is at 35 in FIG.
Even if the direction changes in a different direction as shown in Fig. 7, the movement of the person is small for a short time, so the feature points can be extracted even if the search range is narrowed as described above. Becomes

【0065】また、大きな動作を行い、時間T+aの時
点では、画像が図6の358のように部品の探索範囲か
ら外れた場合には、顔領域検出部200により、顔領域
の検出を行い、顔部品の再度検索を行う。
When a large operation is performed and the image is out of the component search range as indicated by 358 in FIG. 6 at the time T + a, the face area is detected by the face area detection unit 200. Search for facial parts again.

【0066】このトラッキング処理により、顔部品位置
を求める時間が短縮され、スムーズな画像の合成、変換
処理を行えるようになる。
By this tracking processing, the time required to determine the position of the face part is reduced, and smooth synthesis and conversion of images can be performed.

【0067】本実施例では、目の瞳の位置の中心座標、
鼻孔の位置の中心座標を出力する。
In this embodiment, the center coordinates of the position of the pupil of the eye,
Outputs the center coordinates of the nostril position.

【0068】もちろん、口やその他の顔部品の位置を検
出し、その出力としてもよい。
Of course, the position of the mouth and other face parts may be detected and output.

【0069】(画像出力部400)画像出力部400
は、合成内容を付加された入力画像を、出力機器に送
る。
(Image Output Unit 400) Image Output Unit 400
Sends the input image to which the combined content is added to the output device.

【0070】図7に示すように、画像を画面に出力する
場合には、画像合成部600の画像メモリにある合成結
果をビデオRAM410に転送する。D/A変換を介し
てディスプレイ411に表示する。
As shown in FIG. 7, when outputting an image to a screen, the result of synthesis in the image memory of the image synthesis unit 600 is transferred to the video RAM 410. The information is displayed on the display 411 via D / A conversion.

【0071】ファイルへの出力の場合には、ファイルポ
インタ、もしくはバッファに対して画像データを転送す
る。
In the case of outputting to a file, image data is transferred to a file pointer or a buffer.

【0072】ファイルは磁気ディスク430、メモリ4
40等に保存される。
Files are stored on the magnetic disk 430 and the memory 4
40 and so on.

【0073】また、画像の圧縮や画像のフォーマット変
換等を行うエンコーダ420を通して画像を保存、出力
してもよい。
The image may be stored and output through an encoder 420 for compressing the image, converting the format of the image, and the like.

【0074】また、ネットワーク440を会して、別の
装置にデータを送付しても良い。
The data may be sent to another device via the network 440.

【0075】また、通信を行う場合は、合成した結果の
画像を送信することも出来、入力と合成部分の画像を分
ける等の方法や、図形計算部500に必要な合成に必要
な情報のみを送信し、受信側で合成を行う等の方法でも
よい。
In the case of performing communication, it is also possible to transmit an image obtained as a result of the synthesis. A method of transmitting and combining on the receiving side may be used.

【0076】出力メディアが画像やデジタルビデオの場
合には、各画像のメモリを描画内容にしたがって各画素
の情報を変更し、記録メディア(ファイル)に保存す
る。
When the output medium is an image or a digital video, the information of each pixel is changed in the memory of each image according to the drawing contents, and is stored in a recording medium (file).

【0077】(図形計算部500)図形計算部500
は、入力画像に重ね合わせるための所定の図形や画像を
保持、選択、位置計算を行う。図2(b)(c)で示し
たような重ね合わせるための所定の図形や画像の情報の
ことを、「登録図形パターン情報」と呼ぶ。
(Figure Calculation Unit 500) Figure Calculation Unit 500
Holds, selects, and calculates a position of a predetermined figure or image to be superimposed on the input image. The predetermined graphic or image information for superposition as shown in FIGS. 2B and 2C is called “registered graphic pattern information”.

【0078】1 登録図形パターン情報の内容 まず、登録図形パターン情報について説明する。1. Contents of Registered Figure Pattern Information First, the registered figure pattern information will be described.

【0079】登録図形パターン情報の内容としては、表
示する線、多角形、円、楕円、円弧等の規定図形、また
ビットマップと呼ばれるような画素集合等の規定画像等
の、図形の属性を示すもの、また図形の色、テクスチャ
等の属性、顔領域との相対的な位置関係を表す位置情
報、等があり、これをオブジェクトと呼ぶ。
The contents of the registered figure pattern information indicate the figure attributes such as a specified figure such as a line, a polygon, a circle, an ellipse, and an arc to be displayed, and a specified image such as a pixel set called a bitmap. There are objects, attributes such as the color and texture of the figure, positional information indicating a relative positional relationship with the face area, and the like. These are called objects.

【0080】一例として図11に示すような構造体で各
オブジェクトを表現する。
As an example, each object is represented by a structure as shown in FIG.

【0081】ここで、各引数は図形を表現するための、
パラメータや、相対的な位置関係を表現するための関係
情報を表現するためのものである。そのオブジェクトを
複数個有し、ある意味を持った図形配置の行うものを登
録図形パターン情報と呼ぶ。
Here, each argument is used to represent a figure.
It is for expressing parameters and relationship information for expressing a relative positional relationship. An object having a plurality of such objects and performing a graphic arrangement having a certain meaning is referred to as registered graphic pattern information.

【0082】図2(b)の例では、"cat"を表す登録
図形パターン情報であり、図10に示すように9個のオ
ブジェクトからなる。511,512,513多角形オ
ブジェクト、514,515,516,517,51
8,519は線オブジェクトである。顔に合わせて相対
的な位置関係に図形を配置することにより、猫に「変
装」させることができる。
In the example shown in FIG. 2B, the registered figure pattern information represents "cat", and is composed of nine objects as shown in FIG. 511, 512, 513 polygonal objects, 514, 515, 516, 517, 51
8, 519 are line objects. Cats can be "disguised" by arranging figures in relative positional relation to the face.

【0083】各オブジェクトは、オブジェクトの図形属
性によって、それを表現する構造が異なる。例えば、多
角形オブジェクトの場合は、多角形の角の個数、そして
各ポイントの位置情報を表す変数が定義される。線オブ
ジェクトの場合は、2点の位置情報が定義される。また
色属性を表すためのRGB値を表す変数、またはテクス
チャを表すための変数等も定義されている。
Each object has a different structure for expressing it depending on the graphic attribute of the object. For example, in the case of a polygon object, a variable representing the number of corners of the polygon and position information of each point is defined. In the case of a line object, position information of two points is defined. Also, variables indicating RGB values for indicating color attributes, variables indicating texture, and the like are defined.

【0084】図12は、オブジェクトの相対位置を指定
するための指定方法についての説明図である。
FIG. 12 is an explanatory diagram of a specification method for specifying a relative position of an object.

【0085】図12(a)のような顔がカメラに入力さ
れると、顔領域検出部200、顔部品検出部300の機
能により、図12(b)に示す各ポイントが検出され
る。
When a face as shown in FIG. 12A is input to the camera, the points shown in FIG. 12B are detected by the functions of the face area detecting section 200 and the face part detecting section 300.

【0086】図12(c)は、その検出された特徴点か
ら、いくつかの基準となりうる点について、ラベルをつ
けたもので、その名前を示すことにより、各特徴点の座
標位置を得ることができる。
FIG. 12 (c) is a diagram in which some reference points are labeled from the detected feature points, and the coordinates of each feature point are obtained by indicating their names. Can be.

【0087】図12(d)は、各特徴点を用いて、相対
的に位置を表すための、いくつかのベクトル情報を示し
ており、それぞれのラベルで位置情報を指定できる。
FIG. 12D shows some pieces of vector information for relatively indicating a position using each feature point, and position information can be designated by each label.

【0088】実際に、入力された画像に対して、図12
(f)で示すような、多角形(三角形)を描画する方法
について説明する。
Actually, with respect to the input image, FIG.
A method for drawing a polygon (triangle) as shown in FIG.

【0089】まず、図形の種類(現在は多角形)を指定
し、その位置情報を指定する。
First, the type of the figure (currently a polygon) is specified, and its position information is specified.

【0090】図12(e)に示すように、p1,p2,
p3の各点を目の位置b1からの相対的な位置関係で表
現する。
As shown in FIG. 12E, p1, p2,
Each point of p3 is represented by a relative positional relationship from the eye position b1.

【0091】そのためには、a1,a2,a3のベクトル
を次のように指定する。
For this purpose, the vectors a1, a2 and a3 are specified as follows.

【0092】まず、基準として、b1(目)を選び、相
対的な位置を表現するベクトルa1を表す。
First, b1 (eye) is selected as a reference, and a vector a1 expressing a relative position is represented.

【0093】そのために、例えば、顔領域を基準とした FACE_WIDTH,FACE_HEIGHT というベクトルを用いて表現すると、 a1 = t1 * FACE_WIDTH + t2 * FACE_HEIGHT よって、 p1 = b1 + a1 = b1 + FACE_WIDTH * t1 + FACE_HEIGHT*
t2 といった記述をすればよい(t1,t2は実数値)。
For this purpose, for example, using a vector called FACE_WIDTH, FACE_HEIGHT based on the face area, a1 = t1 * FACE_WIDTH + t2 * FACE_HEIGHT Therefore, p1 = b1 + a1 = b1 + FACE_WIDTH * t1 + FACE_HEIGHT *
A description such as t2 may be provided (t1 and t2 are real values).

【0094】そして、図12(f)のような白い三角形
を書くためには、以下の記述で可能となる。
Then, in order to write a white triangle as shown in FIG. 12 (f), the following description is possible.

【0095】 FG_FILL_POLYGON 3 RIGHT_EYE ADD FACE_WIDTH t1 ADD FACE_HEIGHT t2 RIGHT_EYE ADD FACE_WIDTH -t3 ADD FACE_HEIGHT t4 RIGHT_EYE ADD FACE_WIDTH t5 ADD FACE_HEIGHT -t6 COLOR 255 255 255 511のオブジェクトの場合は、まず、表示位置を指定
するために、基準となる顔部品の特徴点を指定する。
FG_FILL_POLYGON 3 RIGHT_EYE ADD FACE_WIDTH t1 ADD FACE_HEIGHT t2 RIGHT_EYE ADD FACE_WIDTH -t3 ADD FACE_HEIGHT t4 RIGHT_EYE ADD FACE_WIDTH Specify the object at 255. Specify the feature points of the facial parts.

【0096】顔部品の特徴点としては、瞳位置、鼻孔位
置、顔領域の中心、各部品間の中点等複数の候補がある
が、511の場合、2つの鼻孔の中点を基準特徴点とし
て選択し、その基準特徴点からの相対位置を設定する。
As the feature points of the face parts, there are a plurality of candidates such as the pupil position, the nostril position, the center of the face area, and the midpoint between the parts. In the case of 511, the midpoint of the two nostrils is used as the reference feature point. And sets a relative position from the reference feature point.

【0097】相対位置の設定は、顔の大きさが変化した
場合にも、大きさをあわせて図形を重ね合わせるためで
あり、相対基準量を用いて指定する。
The relative position is set so that even when the size of the face changes, the figures are superposed and the figures are superimposed, and the relative position is designated using the relative reference amount.

【0098】相対基準量は、検出された顔領域の大きさ
や2つの目の間の距離等が選択できる。
As the relative reference amount, the size of the detected face area, the distance between two eyes, and the like can be selected.

【0099】511では3角形を表示するために、相対
基準量として、顔領域の大きさを選び、その定数倍の
x、y座標位置に3点を指定する。色属性は、511の
場合は塗りつぶしを行い、RGB値を指定している。
In step 511, in order to display a triangle, the size of the face area is selected as a relative reference amount, and three points are designated at x and y coordinate positions that are constant multiples of the size. In the case of the color attribute 511, the color is painted and the RGB value is designated.

【0100】512,513の場合も同様に、基準特徴
点として、それぞれの瞳位置を選択し、その上方に相対
基準量を用いて、各点の指定を行っている。
Similarly, in the case of 512 and 513, each pupil position is selected as a reference feature point, and each point is designated using a relative reference amount above the pupil position.

【0101】514から519は線オブジェクトである
ために、2点を指定する。この場合も、基準特徴点と相
対基準量を用いて指定する。線の場合は、実線、破線等
の指定、色属性の指定等も行える。
Since 514 to 519 are line objects, two points are designated. Also in this case, the designation is performed using the reference feature point and the relative reference amount. In the case of a line, designation of a solid line, a broken line, etc., designation of a color attribute, and the like can also be performed.

【0102】その他、円オブジェクトについても、円の
中心を表す変数、円の大きさを表す変数等が定義され、
その他の図形オブジェクトについても、同様に構造が定
義される。
In addition, for the circle object, variables indicating the center of the circle, variables indicating the size of the circle, and the like are defined.
The structure is similarly defined for other graphic objects.

【0103】ビットマップオブジェクトについては、表
示を行う場合の位置、または表示させる場合の拡大率等
を指定する。
As for the bitmap object, a position for display, an enlargement ratio for display, and the like are specified.

【0104】なお、これらのオブジェクトは描画順序に
よって描かれる結果が異なるために、描画順序を規定
し、オブジェクトの記述順に画像に施されるとする。
Note that these objects have different drawing results depending on the drawing order. Therefore, it is assumed that the drawing order is specified and the objects are applied to the images in the order of description.

【0105】2 図形計算部500の内容 次に、図形計算部500の振る舞いについて説明する。Next, the behavior of the graphic calculation unit 500 will be described.

【0106】図形計算部500は、図9に示すように図
形データベース501、重ね合わせ位置計算部501か
ら構成される。
As shown in FIG. 9, the figure calculating section 500 includes a figure database 501 and a superposition position calculating section 501.

【0107】図形データベース501には、複数の登録
図形パターン情報が保存されており、これらの登録図形
パターンはファイルとして管理され、自由に新規追加、
削除等が行われる。データベースには、パターン情報の
個数や大きさ等の情報が管理される。
A plurality of registered graphic pattern information is stored in the graphic database 501, and these registered graphic patterns are managed as files and can be freely newly added,
Deletion is performed. The database manages information such as the number and size of pattern information.

【0108】各パターンの情報の構造は、図13に示す
ように、データベースには複数の登録図形パターンがあ
り、各登録図形パターンは、それぞれオブジェクトの集
合として構成されている。
As shown in FIG. 13, the information structure of each pattern has a plurality of registered graphic patterns in the database, and each registered graphic pattern is configured as a set of objects.

【0109】このデータベースは、磁気ディスクまたは
メモリユニットから構成されている。そして、登録図形
パターンのデータベースを記憶したFD,CD−RO
M,MO,DVD等の記録媒体を別途用意しておき、こ
れをパソコンである画像処理装置にインストール等によ
って記憶させてもよい。この場合に、登録図形パターン
のデータベースの記録媒体のみを製造、販売してもよ
い。
This database is composed of a magnetic disk or a memory unit. FD, CD-RO storing a database of registered graphic patterns
A recording medium such as M, MO, DVD or the like may be separately prepared, and this may be stored in an image processing apparatus which is a personal computer by installation or the like. In this case, only the recording medium of the database of the registered graphic patterns may be manufactured and sold.

【0110】パターン編集部504によって、登録図形
パターンの入出力を可能にする。例えば、可搬型磁気デ
ィスク、可搬型メモリユニット等の交換を目的としたメ
ディア、またはネットワーク経由によるデータ交換等を
目的としたインタフェースを有してもよいし、編集エデ
ィタ機能を有してもよい。
The pattern editing unit 504 enables input / output of registered graphic patterns. For example, it may have a medium for exchanging a portable magnetic disk, a portable memory unit, or the like, or an interface for exchanging data via a network, or may have an editing editor function.

【0111】これらの登録図形パターン情報は、あるス
クリプト言語によって記述することができる。
The registered graphic pattern information can be described in a certain script language.

【0112】例えば、“cat”を表す登録図形パター
ン情報は、図8に示すようなテキスト情報で記述された
スクリプトとして表現される。これにより、テキストフ
ァイルを編集することで、合成する図形情報を修正する
ことができ、このファイルをネットワークを通じて流通
させること等も可能である。
For example, the registered graphic pattern information representing “cat” is expressed as a script described by text information as shown in FIG. As a result, by editing the text file, the graphic information to be synthesized can be corrected, and this file can be distributed through a network.

【0113】重ね合わせ位置計算部502は、必要とな
る基準特徴点の情報や相対基準量の情報を、顔領域検出
部200や顔部品検出部300から読み込み、引数によ
って指定されたそれぞれの位置を計算する。
The superposition position calculation unit 502 reads necessary reference feature point information and relative reference amount information from the face area detection unit 200 and the face part detection unit 300, and determines the respective positions specified by the arguments. calculate.

【0114】図14のフローチャートを用いて説明す
る。
This will be described with reference to the flowchart of FIG.

【0115】まず、登録図形データ情報を図形データベ
ース501の中からひとつを選択して、メモリに読み込
む(ステップ50201)。その選択は選択部503に
よって選ばれる。
First, one of the registered graphic data information is selected from the graphic database 501 and read into the memory (step 50201). The selection is made by the selection unit 503.

【0116】選択部503は、利用者によって選択され
た登録図形パターンのID(例えば、認識番号)を重ね
合わせ位置計算部502に送り、そのIDのパターンを
読み込む。
The selecting section 503 sends the ID (for example, identification number) of the registered figure pattern selected by the user to the superposition position calculating section 502, and reads the pattern of the ID.

【0117】ここで、選択部503に乱数発生機構やタ
イマを持たせ、一定時間間隔であるパターンの変更シー
ケンスを行ったり、パターンをランダムに切り替える等
の演出効果を導入することも可能である。
Here, the selection unit 503 may be provided with a random number generation mechanism and a timer to introduce effects such as performing a pattern change sequence at regular time intervals and switching patterns randomly.

【0118】メモリにロードされた登録図形パターン情
報について、複数のオブジェクトについて次の処理を行
う。
For the registered graphic pattern information loaded into the memory, the following processing is performed for a plurality of objects.

【0119】まず記述された順序通りに一つのオブジェ
クトを読み込む(ステップ50202)。
First, one object is read in the order described (step 50202).

【0120】そのオブジェクトの中で定義されている引
数の読み込みを行う(ステップ50203)。
An argument defined in the object is read (step 50203).

【0121】引数には、位置情報を表すものとパラメー
タ(円の半径の大きさ等)を表すものがあるが、それぞ
れについて指定された引数の情報にしたがって処理をす
る。
The arguments include those representing positional information and those representing parameters (such as the size of the radius of a circle). Processing is performed according to the information of the designated arguments for each.

【0122】説明は位置情報の場合で説明する。始めに
位置情報を表すための変数の初期化を行う。位置情報を
表す点(ax,ay)とすると、ax,ayについて、
ax,ay共に0を代入する(ステップ50204)。
The description will be made in the case of position information. First, variables for representing position information are initialized. Assuming that the point (ax, ay) representing the position information is:
Substitute 0 for both ax and ay (step 50204).

【0123】次に指定されている顔部品等の位置情報も
しくは、顔部品から得られる図12で示したベクトル等
を用いて指定された長さを読み込む(ステップ5020
5)。
Next, the designated length is read using the position information of the designated face part or the like or the vector shown in FIG. 12 obtained from the face part (step 5020).
5).

【0124】その位置情報に係数を施す(定数倍する)
処理を行う(ステップ50206)。
Apply a coefficient to the position information (multiply by a constant)
Processing is performed (step 50206).

【0125】そして位置情報を表す変数であるax,a
yに加算する(ステップ50207)。
The variables ax and a representing the position information
It is added to y (step 50207).

【0126】さらに引数に記述がある場合には、ステッ
プ50205から繰り返し、そうでなければ(ax,a
y)がその位置情報となる(ステップ50208)。
Further, if there is a description in the argument, the processing is repeated from step 50205. Otherwise, (ax, a
y) is the position information (step 50208).

【0127】さらに引数がある場合には、繰り返し(ス
テップ50209)、全てのオブジェクトの引数につい
て値が決まった場合に終了する(ステップ5021
0)。
If there are more arguments, the process is repeated (step 50209). When the values have been determined for all the arguments of the object, the process ends (step 5021).
0).

【0128】この手順により検出した顔の位置の情報に
対応する、合成画像の位置が決定する。
According to this procedure, the position of the composite image corresponding to the information of the position of the face detected is determined.

【0129】(画像合成部600)画像合成部600
は、指定された登録図形パターン情報を図形計算部50
0によって計算された位置に、それぞれの属性で合成、
または画像の加工を行う。
(Image Synthesizing Unit 600) Image Synthesizing Unit 600
Stores the designated registered figure pattern information in the figure calculating section 50.
Combined with each attribute at the position calculated by 0,
Or perform image processing.

【0130】画像合成部600の構成例を図15に示
す。
FIG. 15 shows an example of the configuration of the image synthesizing section 600.

【0131】画像メモリ610は、入力画像を保持し、
それぞれの合成部612に渡される。
An image memory 610 holds an input image.
The information is passed to the respective combining units 612.

【0132】各合成部612は、登録図形パターン情報
で記述された形状の種類、処理方法に応じて選択的に用
いられる。その指示は、図形計算部500から渡される
形状、位置情報、パラメータ、画像情報をオブジェクト
情報制御部611が受取り、指定のオブジェクトの数だ
け処理を繰り返す。
Each of the synthesizing units 612 is selectively used according to the type of shape described in the registered graphic pattern information and the processing method. As for the instruction, the object information control unit 611 receives the shape, position information, parameters, and image information passed from the graphic calculation unit 500, and repeats the processing by the number of designated objects.

【0133】画像メモリ610に保持されている画像は
合成部612によって変換され、画像メモリ613に保
持される。処理が繰り返される場合は、画像メモリ61
3から画像メモリ610に画像がコピーされ、処理が繰
り返される。
The image stored in the image memory 610 is converted by the synthesizing unit 612 and stored in the image memory 613. If the processing is repeated, the image memory 61
3 to the image memory 610, and the process is repeated.

【0134】オブジェクト情報制御部611は、全ての
合成が終了すると、画像メモリ613の画像を外部に渡
す。
The object information control section 611 transfers the image in the image memory 613 to the outside when all the syntheses are completed.

【0135】これまで、画像に対して図形を合成するこ
とについて述べたが、次にビットマップ画像の重ね合わ
せについて説明する。
So far, the description has been given of the case where a figure is synthesized with an image. Next, superposition of a bitmap image will be described.

【0136】ビットマップの重ね合わせは、図16のよ
うに行われる。フローチャートは図17である。
The bit maps are superimposed as shown in FIG. The flowchart is shown in FIG.

【0137】図16の650は処理対象となる入力画像
であり、わかりやすくするために、検出した目鼻に円を
つけて表示したものである。
In FIG. 16, reference numeral 650 denotes an input image to be processed, in which the detected eyes and nose are circled and displayed for easy understanding.

【0138】検出された位置応じて計算される位置に合
わせて、図16の652で表されるようなビットマップ
画像(サル)を重ね合わせ、図16の651の合成画像
を得ることを目的とする。
A bit map image (monkey) represented by 652 in FIG. 16 is superimposed on a position calculated according to the detected position to obtain a composite image 651 in FIG. I do.

【0139】図17のステップ661では、合成するビ
ットマップの画像を読み込み、同時に埋め込みの際の排
除色(合成しない領域を表し、図16の652の白い領
域の色を指す。)を読み込む。
In step 661 of FIG. 17, a bitmap image to be combined is read, and at the same time, an exclusion color at the time of embedding (representing a region not to be combined and indicating the color of a white region 652 in FIG. 16) is read.

【0140】ステップ662では、ビットマップ画像が
合成される位置を図16の653のように前述のような
位置指定から計算する。
In step 662, the position where the bitmap image is to be synthesized is calculated from the above-described position designation as indicated by 653 in FIG.

【0141】ステップ663では、入力画像を読み込
み、ビットマップ画像の合成を開始する。合成位置は拡
大、縮小されることもあるため、対象となる領域のなか
での画素位置を求め(ステップ664)、それぞれの合
成位置によって処理が異なる(ステップ665)。図1
6の654の場所に対応する図16の655の位置で
は、排除色の場合(図16の656)は入力画像の画素
値をそのまま出力し(ステップ666)、排除色ではな
く図柄がある場合(図16の657)はビットマップ画
像の画素値を出力とする(ステップ667)。
At step 663, the input image is read and the synthesis of the bitmap image is started. Since the combining position may be enlarged or reduced, the pixel position in the target area is determined (step 664), and the processing differs depending on the combining position (step 665). FIG.
At the position 655 in FIG. 16 corresponding to the position 654 in FIG. 6, in the case of the excluded color (656 in FIG. 16), the pixel value of the input image is output as it is (step 666), and there is a pattern instead of the excluded color (step 666). Step 657 in FIG. 16 outputs the pixel value of the bitmap image (step 667).

【0142】全ての対象領域に対して処理が行われたか
を判断し(ステップ668)、終わっていれば、図16
の651に示したような合成画像を出力する。
It is determined whether the processing has been performed for all the target areas (step 668).
A composite image as shown at 651 is output.

【0143】もちろん、一枚の入力画像に複数のビット
マップ合成を行っても良い。
Of course, a plurality of bitmaps may be synthesized for one input image.

【0144】なお、合成部612の構成を変え、画像メ
モリを一つにしてもよいし、その構成は問わない。
The composition of the synthesizing unit 612 may be changed to one image memory, and the composition is not limited.

【0145】また、出力メディアがディスプレイ等で、
リアルタイムに表示を行う場合は、VRAMに直接画像
変換を加えるような構成でもよい。
The output medium is a display or the like.
In the case of displaying in real time, a configuration in which image conversion is directly applied to the VRAM may be employed.

【0146】出力メディアが画像やデジタルビデオの場
合には、各画像のメモリを描画内容にしたがって各画素
の情報を変更し、記録メディアに保存すればよい。
When the output medium is an image or a digital video, the information of each pixel may be changed in the memory of each image according to the drawing content and stored in the recording medium.

【0147】[実 施 例 2]実施例2の画像処理装
置について説明する。
[Embodiment 2] An image processing apparatus according to Embodiment 2 will be described.

【0148】実施例2の画像処理装置では、実施例1で
述べた画像合成部600に画像変換部700を加える。
In the image processing apparatus according to the second embodiment, an image conversion section 700 is added to the image synthesis section 600 described in the first embodiment.

【0149】画像合成部600に画像変換部700の機
能を追加した構成例を図18に示す。
FIG. 18 shows a configuration example in which the function of the image conversion unit 700 is added to the image synthesis unit 600.

【0150】画像合成部600で説明した各機能と同列
で、画像を変換する機能をもつもの、例えば画像のある
領域に対してモザイク化を行うモザイク処理部701や
画像のある部分領域を拡大、縮小する部分拡大縮小処理
部702やその他の画像変換部703を追加する。
The same functions as those described in the image synthesizing section 600 and having a function of converting an image, for example, a mosaic processing section 701 for performing mosaicization on a certain area of an image, or enlarging a partial area of an image, A partial enlargement / reduction processing unit 702 to be reduced and another image conversion unit 703 are added.

【0151】画像合成部600を用いた実施例では、図
形や画像の重ね合わせによる合成のみであるが、画像自
身に画像変換を加えることで、様々な印象の異なる画像
を得ることがさらに可能となる。
In the embodiment using the image synthesizing unit 600, only synthesis by superimposing figures and images is performed. However, by applying image conversion to the image itself, it is possible to obtain images having various impressions. Become.

【0152】図19に画像変換の例を示す。FIG. 19 shows an example of image conversion.

【0153】図19(a)は処理対象となる入力画像で
あり、わかりやすくするために、検出した目鼻に円をつ
けて表示したものである。
FIG. 19A shows an input image to be processed, in which the detected eyes and nose are circled for easy understanding.

【0154】この画像に対し、検出された顔領域、目鼻
位置の情報を用いて、顔領域付近以外の場所について、
モザイク化の処理を行ったものが図19(b)である。
Using the information of the detected face area and the position of the eyes and nose for this image,
FIG. 19B shows the result of the mosaic processing.

【0155】また、顔領域付近のみに対しモザイク化の
処理を行ったものが図19(c)であり、このような画
像自身に対して画像変換を行う処理を提供する。
FIG. 19C shows the result of performing the mosaic processing only on the vicinity of the face area, and the processing for performing image conversion on such an image itself is provided.

【0156】もちろん、顔領域を自動的に追跡している
ために、図19(c)(d)のように、人物が移動して
も、その場所でモザイク化の処理を行うことで、常時顔
領域がモザイクが処理された画像を得ることができる。
Of course, since the face area is automatically tracked, even if a person moves, as shown in FIGS. It is possible to obtain an image in which the face area has been subjected to mosaic processing.

【0157】また、入力画像の一部分を拡大、縮小する
機能により、図19(e)(f)のように、目部分の拡
大や鼻部分の拡大といった効果を施すこともできる。
The function of enlarging or reducing a part of the input image can also provide the effect of enlarging the eyes and the nose as shown in FIGS. 19 (e) and 19 (f).

【0158】従って、目鼻等の部品情報も用いた変形制
御が可能であるため従来例の6.で述べたようなシステ
ムとは異なる。
[0158] Therefore, since deformation control can also be performed using part information such as eyes and nose, the conventional technique of 6. This is different from the system described above.

【0159】処理手順は以下の通りである。The processing procedure is as follows.

【0160】画像メモリ610は、入力画像を保持し、
それぞれの画像変換部に渡す。
The image memory 610 holds the input image,
It passes to each image conversion part.

【0161】各画像変換部701,702,703は、
登録図形パターン情報で記述された画像変換の種類、処
理方法に応じて選択的に用いられる。
Each of the image conversion units 701, 702, 703
It is selectively used depending on the type of image conversion described in the registered graphic pattern information and the processing method.

【0162】その指示は、図形計算部500から渡され
る形状、位置情報、パラメータ、をオブジェクト情報制
御部611が受取り、画像メモリ610に保持されてい
る画像を変換部701によって変換し、画像メモリ61
3に保持する。処理が繰り返される場合は、画像メモリ
613から画像メモリ610に画像がコピーされ、処理
が再度行われる。オブジェクト情報制御部611は、全
ての合成、画像変換が終了すると、画像メモリ613の
画像を外部に渡す。
In response to the instruction, the object information control unit 611 receives the shape, position information, and parameters passed from the graphic calculation unit 500, converts the image held in the image memory 610 by the conversion unit 701, and
Hold at 3. When the process is repeated, the image is copied from the image memory 613 to the image memory 610, and the process is performed again. The object information control unit 611 transfers the image in the image memory 613 to the outside when all the synthesis and the image conversion are completed.

【0163】各画像変換部は、図20のフローチャート
で動作する。ここでは、部分拡大処理を行う部分拡大縮
小処理部702の動作を例に説明する。
Each image converter operates according to the flowchart shown in FIG. Here, the operation of the partial enlargement / reduction processing unit 702 that performs the partial enlargement processing will be described as an example.

【0164】まず、ステップ711では、画像変換の情
報を読み込む。部分拡大処理部702では、目の領域の
拡大率等を読み込む。
First, in step 711, information of image conversion is read. The partial enlargement processing unit 702 reads the enlargement ratio of the eye area and the like.

【0165】ステップ712では、画像変換を施すため
の画像変換の位置情報を計算する。
In step 712, position information of image conversion for performing image conversion is calculated.

【0166】部分拡大縮小処理部702では、原画像の
目領域と拡大後の目領域の大きさのを求める。図20の
721のように拡大前の目領域の位置を求め、ステップ
711で得られた拡大率を元に、図20の722の拡大
後の目領域の位置を求める。
The partial enlargement / reduction processing unit 702 obtains the size of the eye area of the original image and the size of the eye area after enlargement. The position of the eye region before the enlargement is obtained as shown by 721 in FIG. 20, and the position of the eye region after the enlargement of 722 in FIG. 20 is obtained based on the enlargement ratio obtained in step 711.

【0167】ステップ713では、画像変換を施すため
の対象画像をメモリから読み込み、ステップ714にお
いて、画像変換を施す。
In step 713, an image to be subjected to image conversion is read from the memory, and in step 714, image conversion is performed.

【0168】部分拡大縮小処理702では、先の拡大を
対象領域に対して行い、723のような画像をえる。そ
して、ステップ715で、その画像を出力する。
In the partial enlargement / reduction processing 702, the above enlargement is performed on the target area, and an image like 723 is obtained. Then, in step 715, the image is output.

【0169】もちろんこのような画像変形を複数回行っ
てもよいし、多重に操作してもよい。図形の合成と組み
合わせて利用することでさらなる効果が期待できる。
Of course, such image deformation may be performed a plurality of times, or multiple operations may be performed. Further effects can be expected by using it in combination with the synthesis of figures.

【0170】また、このような画像変換だけでなく、色
調の補正や対象領域のエッジだけを抽出する等の別の処
理でもよい。
In addition to such image conversion, other processing such as color tone correction or extraction of only the edge of the target area may be performed.

【0171】[変 形 例]以下、上記実施例の変形例
を幾つか説明する。
[Modifications] Several modifications of the above embodiment will be described below.

【0172】(変形例1)図21のように、音声出力部
700を加え、画像の合成に合わせて音声、音楽等を出
力してもよい。
(Modification 1) As shown in FIG. 21, an audio output unit 700 may be added to output audio, music, and the like in synchronism with image synthesis.

【0173】この場合、図形計算部500で、合成が開
始されたフレームに同期して、音声を出力させてもよ
い。また、合成が行われているときに、バックグラウン
ドミュージックを出力してもよい。音声情報は、登録図
形パターン情報に付随して保持させればよい。
In this case, the graphic calculation section 500 may output a sound in synchronization with the frame in which the synthesis is started. In addition, background music may be output when synthesis is being performed. The audio information may be stored along with the registered graphic pattern information.

【0174】(変形例2)また、図22のように、音声
認識部800を加え、音声による合成内容の選択を行っ
ても良い。
(Modification 2) As shown in FIG. 22, a speech recognition section 800 may be added to select synthesized contents by speech.

【0175】例えば、「サル」という声をシステムに対
して入力すると音声認識部800により、「サル」とい
う言葉を認識し、その言葉に対応する変装内容を選択部
503への指示で選択し、図16のような変装が行われ
ることが実現できる。
For example, when a voice "monkey" is input to the system, the voice recognition unit 800 recognizes the word "monkey" and selects the disguise content corresponding to the word by an instruction to the selection unit 503. The disguise as shown in FIG. 16 can be realized.

【0176】もちろん、このために登録図形パターン情
報にキーワードをつける拡張を施して良い。
Of course, an extension for adding a keyword to the registered graphic pattern information may be provided for this purpose.

【0177】これにより、次々に合成情報につけられた
キーワードを発声することで次々に様々な画像変形を楽
しむことが出来る。
Thus, by uttering the keywords attached to the combined information one after another, various image deformations can be enjoyed one after another.

【0178】(変形例3)実施例1,2では、顔領域、
顔部品の位置と大きさだけであったが、顔から得られる
副次的な特徴をくわえ、さらにバリエーションを加える
ことができる。
(Modification 3) In the first and second embodiments, the face area,
Although only the position and the size of the face part were used, additional variations can be added, in addition to the secondary features obtained from the face.

【0179】ここで、副次的な特徴とは、瞬き、顔の向
き、瞳の位置、視線方向、口のあけ方、個人同定情報等
をさす。
Here, the secondary features refer to blinking, face direction, pupil position, line-of-sight direction, how to open the mouth, personal identification information, and the like.

【0180】例えば、顔の向きに応じて図形を変形させ
ることにより、各図形オブジェクトにアフィン変換等の
変形操作を加え、顔の向きに対応した図形出力が可能に
なる。
For example, by deforming a figure according to the direction of a face, a deformation operation such as affine transformation is applied to each figure object, and a figure corresponding to the direction of the face can be output.

【0181】また、顔の状態によって、表示、合成する
オブジェクトの数を変更する等の拡張を行ってもよい。
Further, the number of objects to be displayed and combined may be changed depending on the state of the face.

【0182】例えば、人間の目のまばたきを行うことを
スイッチとして、目を閉じているフレームでは、別のオ
ブジェクトが表示されることや、オブジェクトの属性
(色、大きさ、位置、形状)を変更させることも可能で
ある。このような拡張のためには、オブジェクトの記述
法と登録図形パターン情報の構造を変更する必要があ
る。
For example, the blinking of human eyes is used as a switch, and in a frame with closed eyes, another object is displayed or the attributes (color, size, position, shape) of the object are changed. It is also possible to make it. For such an extension, it is necessary to change the description method of the object and the structure of the registered graphic pattern information.

【0183】また、顔の特徴として、目鼻の位置だけで
あったが、口等を検出する部も加えれば、さらに表現能
力を高めることができる。
Although the facial feature is only the position of the eyes and nose, the expression ability can be further enhanced by adding a part for detecting the mouth and the like.

【0184】(変更例4)現在は、入力画像自身には変
更を加えてないが、画像にもモーフィングに代表される
ような変形を加え、図形表示と組み合わせることで、表
現力を高めることができる。
(Modification 4) At present, no change is made to the input image itself, but it is possible to enhance the expressive power by adding a deformation such as morphing to the image and combining it with a graphic display. it can.

【0185】例えば、ある動物の骨格に合わせて、顔の
領域を変形させ、その後図形表示を行えば、さらにリア
リティも向上させることができる。
For example, by deforming the face area in accordance with the skeleton of a certain animal and then performing graphic display, the reality can be further improved.

【0186】(変更例5)また、入力画像の情報にあわ
せて各オブジェクトの属性を変更することも可能であ
る。
(Modification 5) It is also possible to change the attribute of each object according to the information of the input image.

【0187】例えば、入力画像の色調にあわせて、色属
性を変更する等がその例である。暗い画像が入力された
場合には、明度や彩度を落として重ね合わせれば効果的
である。
For example, the color attribute is changed in accordance with the color tone of the input image. When a dark image is input, it is effective to reduce the brightness and saturation and superimpose the images.

【0188】(変更例6)顔の検出は、実施例では一人
で説明を行ったが、複数人を検出し、複数人の顔部品情
報を同時に検出する方法に変更し、複数人を同時に仮装
させることも可能である。
(Modification 6) In the embodiment, the face detection was explained by one person. However, the method is changed to a method of detecting a plurality of persons and simultaneously detecting face parts information of a plurality of persons, and disguising a plurality of persons simultaneously. It is also possible to make it.

【0189】[0189]

【発明の効果】本発明によれば、瞬時に様々な変形パタ
ーン含んだ顔画像を得ることができ、アミューズメント
やプレゼンテーション、画像通信、ビデオメール等の画
像効果を向上させることが可能になる。
According to the present invention, a face image including various deformation patterns can be obtained instantaneously, and it is possible to improve image effects such as amusement, presentation, image communication, and video mail.

【0190】また、通常とは異なる動画像を簡単に生成
できるために、コミュニケーションのツールとしての効
果をもたらすことが期待できる。
Further, since a moving image different from the usual one can be easily generated, it can be expected that the effect as a communication tool is brought about.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の画像処理装置のブロック図
である。
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】合成適用例である。FIG. 2 is an example of a synthesis application.

【図3】画像入力部のブロック図である。FIG. 3 is a block diagram of an image input unit.

【図4】顔領域検出部のブロック図である。FIG. 4 is a block diagram of a face area detection unit.

【図5】顔部品検出部のブロック図である。FIG. 5 is a block diagram of a face part detection unit.

【図6】顔部品の検出の説明図である。FIG. 6 is an explanatory diagram of face part detection.

【図7】画像出力部のブロック図である。FIG. 7 is a block diagram of an image output unit.

【図8】登録パターン情報のスクリプト例である。FIG. 8 is a script example of registration pattern information.

【図9】図形計算部のブロック図である。FIG. 9 is a block diagram of a graphic calculation unit.

【図10】登録図形パターンの一例である。FIG. 10 is an example of a registered graphic pattern.

【図11】オブジェクトの構造体の一例である。FIG. 11 is an example of an object structure.

【図12】オブジェクトの相対位置の指定法である。FIG. 12 shows a method for specifying a relative position of an object.

【図13】登録図形パターンの構造である。FIG. 13 shows the structure of a registered graphic pattern.

【図14】オブジェクトの相対位置の計算法の流れ図で
ある。
FIG. 14 is a flowchart of a method for calculating a relative position of an object.

【図15】画像合成部のブロック図である。FIG. 15 is a block diagram of an image synthesis unit.

【図16】ビットマップ合成部の説明図である。FIG. 16 is an explanatory diagram of a bitmap synthesis unit.

【図17】ビットマップ合成のフローチャートである。FIG. 17 is a flowchart of bitmap synthesis.

【図18】画像変換部のブロック図である。FIG. 18 is a block diagram of an image conversion unit.

【図19】画像変換適用例である。FIG. 19 is an example of image conversion application.

【図20】画像変換の説明図とフローチャートである。FIG. 20 is an explanatory diagram and a flowchart of image conversion.

【図21】実施例2の画像処理装置のブロック図であ
る。
FIG. 21 is a block diagram illustrating an image processing apparatus according to a second embodiment.

【図22】変更例の画像処理装置であり音声認識部を用
いたブロック図である。
FIG. 22 is a block diagram showing a modified example of the image processing apparatus using a voice recognition unit.

【符合の説明】[Description of sign]

100 画像入力部 200 顔領域検出部 300 顔部品検出部 400 画像出力部 500 図形計算部 600 図形合成部 DESCRIPTION OF SYMBOLS 100 Image input part 200 Face area detection part 300 Face part detection part 400 Image output part 500 Graphic calculation part 600 Graphic synthesis part

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】画像を入力する画像入力手段と、 前記画像入力手段によって入力した画像中の対象者の顔
領域を検出する顔領域検出手段と、 前記顔領域検出手段によって検出した顔領域から目、鼻
等の顔部品の位置を検出する顔部品位置検出手段と、 前記顔領域検出手段によって検出した顔領域、または、
前記顔部品位置検出手段によって検出した顔部品の位置
や大きさに応じて、前記画像入力手段によって入力した
画像に相当する画像に合成するための図形や画像の内
容、位置を決定するか、または、前記相当する画像を変
換する内容、位置を決定する図形計算手段と、 前記画像入力手段によって入力した画像に対し、前記図
形計算手段によって決定した図形や画像を合成するか、
または、前記画像入力手段によって入力した画像を前記
図形計算手段によって決定した内容で変換する画像合成
手段と、 前記画像合成手段によって合成、または、変換された画
像を出力する画像出力手段と、 を有したことを特徴とする画像処理装置。
1. An image input means for inputting an image, a face area detection means for detecting a face area of a subject in an image input by the image input means, and an eye from a face area detected by the face area detection means. A face part position detecting means for detecting the position of a face part such as a nose; and a face area detected by the face area detecting means, or
Depending on the position and size of the face part detected by the face part position detection means, determine the contents and position of a figure or image to be combined with an image corresponding to the image input by the image input means, or A graphic calculating means for determining the content and position of converting the corresponding image; and combining the graphic or image determined by the graphic calculating means with the image input by the image input means,
Alternatively, there is provided: an image synthesizing unit that converts an image input by the image input unit with contents determined by the graphic calculation unit; and an image output unit that outputs an image synthesized or converted by the image synthesizing unit. An image processing apparatus characterized in that:
【請求項2】前記顔領域検出手段、または、顔部品位置
検出手段は、 前記画像入力手段によって入力した画像が動画である場
合に、前記動画の前フレームの顔領域、または、顔部品
の位置の近傍のみを探索領域として検出を行い、前記動
画の現フレームの顔領域、または、顔部品を検出するこ
とを特徴とする請求項1記載の画像処理装置。
2. The method according to claim 1, wherein the face area detecting means or the face part position detecting means, when the image input by the image input means is a moving image, the face area or the position of the face part in the previous frame of the moving image. The image processing apparatus according to claim 1, wherein only the vicinity of the image is detected as a search area, and a face area or a face part of a current frame of the moving image is detected.
【請求項3】前記図形計算手段は、 顔領域、または、顔部品の位置、顔部品の相対的な位置
関係、並びに、顔領域、または、顔部品の大きさに基づ
いて設定可能な複数の図形、または、画像等のの集合か
らなる登録図形パターン情報を保持する情報保持手段
と、 前記顔領域検出手段、または、前記顔部品位置検出手段
によって検出された顔領域、または、顔部品の位置や大
きさ等の情報と、前記情報保持手段に保持された登録図
形パターン情報とを用いて、合成する図形や画像の位置
や大きさを決定する重ね合わせ位置計算手段と、 を有したことを特徴とする請求項1記載の画像処理装
置。
3. The method according to claim 1, wherein the figure calculating means includes: a plurality of face regions or face parts; a plurality of positions that can be set based on a relative positional relationship between the face parts and a size of the face region or the face parts. An information holding unit that holds registered figure pattern information composed of a set of figures or images, and a position of a face region or a face part detected by the face area detection unit or the face part position detection unit And superimposition position calculation means for determining the position and size of a graphic or image to be synthesized using information such as the size and size and the registered figure pattern information held in the information holding means. The image processing apparatus according to claim 1, wherein:
【請求項4】前記情報保持手段に保持された前記登録図
形パターン情報は、 追加、削除、編集、または、交換が可能なことを特徴と
する請求項3記載の画像処理装置。
4. The image processing apparatus according to claim 3, wherein said registered graphic pattern information held in said information holding means can be added, deleted, edited, or exchanged.
【請求項5】前記図形計算手段は、 前記情報保持手段に保持された登録図形パターン情報の
中から、前記重ね合わせ位置計算手段で用いる登録図形
パターン情報を、乱数によってランダムに選択、また
は、変更する選択手段を有したことを特徴とする請求項
1記載の画像処理装置。
5. The graphic calculating means randomly selects or changes registered graphic pattern information to be used by the superposition position calculating means from the registered graphic pattern information stored in the information storing means, by using a random number. 2. The image processing apparatus according to claim 1, further comprising a selection unit that performs the selection.
【請求項6】前記画像合成手段によって合成された図形
や画像に同期して音声を出力する音声出力手段を有した
ことを特徴とする請求項1記載の画像処理装置。
6. An image processing apparatus according to claim 1, further comprising an audio output unit for outputting an audio in synchronization with a figure or an image synthesized by said image synthesizing unit.
【請求項7】前記図形計算手段は、 使用者の音声を入力する音声入力手段と、 前記音声入力手段によって入力した音声によって、前記
情報保持手段に保持された登録図形パターン情報の中か
ら、前記重ね合わせ位置計算手段で用いる登録図形パタ
ーン情報を選択、または、変更する選択手段と、 を有したことを特徴とする請求項1記載の画像処理装
置。
7. The graphic calculation means includes: a voice input means for inputting a voice of a user; and a voice input by the voice input means, from among the registered graphic pattern information held in the information holding means. 2. The image processing apparatus according to claim 1, further comprising: selecting means for selecting or changing registered graphic pattern information used by the superposition position calculating means.
【請求項8】前記図形計算手段は、 顔領域、または、顔部品の位置、顔部品の相対的な位置
関係、並びに、顔領域、または、顔部品の大きさに基づ
いて、前記画像入力手段によって入力した画像の中から
変換する領域を決定し、 前記画像合成手段は、 前記図形計算手段によって決定された前記画像の領域を
所定の内容で変換することを特徴とする請求項1記載の
画像処理装置。
8. The image input means based on a face area or a position of a face part, a relative positional relationship between the face parts, and a size of the face area or the face part. 2. The image according to claim 1, wherein a region to be converted is determined from the input image, and the image combining unit converts the region of the image determined by the graphic calculation unit with predetermined contents. Processing equipment.
【請求項9】前記画像入力手段は、 デジタル動画像、または、デジタル静止画像を入力する
ことを特徴とする請求項1記載の画像処理装置。
9. The image processing apparatus according to claim 1, wherein said image input means inputs a digital moving image or a digital still image.
【請求項10】前記画像出力手段は、 デジタル動画像、または、デジタル静止画像を出力する
ことを特徴とする請求項1記載の画像処理装置。
10. An image processing apparatus according to claim 1, wherein said image output means outputs a digital moving image or a digital still image.
【請求項11】画像を入力する画像入力ステップと、 前記画像入力ステップによって入力した画像中の対象者
の顔領域を検出する顔領域検出ステップと、 前記顔領域検出ステップによって検出した顔領域から
目、鼻等の顔部品の位置を検出する顔部品位置検出ステ
ップと、 前記顔領域検出ステップによって検出した顔領域、また
は、前記顔部品位置検出ステップによって検出した顔部
品の位置や大きさに応じて、前記画像入力ステップによ
って入力した画像に相当する画像に合成するための図形
や画像の内容、位置を決定するか、または、前記相当す
る画像を変換する内容、位置を決定する図形計算ステッ
プと、 前記画像入力ステップによって入力した画像に対し、前
記図形計算ステップによって決定した図形や画像を合成
するか、または、前記画像入力ステップによって入力し
た画像を前記図形計算ステップによって決定した内容で
変換する画像合成ステップと、 前記画像合成ステップによって合成、または、変換され
た画像を出力する画像出力ステップと、 を有したことを特徴とする画像処理方法。
11. An image inputting step of inputting an image, a face area detecting step of detecting a face area of a target person in the image input by the image inputting step, and an eye from the face area detected by the face area detecting step. A face part position detecting step of detecting the position of a face part such as a nose; and a face area detected by the face area detecting step, or a position or a size of the face part detected by the face part position detecting step. A figure calculation step of determining the contents and position of a figure or image to be combined with an image corresponding to the image input in the image input step, or determining the contents and position of converting the corresponding image; With respect to the image input in the image input step, the figure or image determined in the figure calculation step is synthesized, or An image synthesizing step of converting an image input by the image input step with contents determined by the graphic calculation step; and an image outputting step of outputting an image synthesized or converted by the image synthesizing step. An image processing method comprising:
【請求項12】画像を入力する画像入力機能と、 前記画像入力機能によって入力した画像中の対象者の顔
領域を検出する顔領域検出機能と、 前記顔領域検出機能によって検出した顔領域から目、鼻
等の顔部品の位置を検出する顔部品位置検出機能と、 前記顔領域検出機能によって検出した顔領域、または、
前記顔部品位置検出機能によって検出した顔部品の位置
や大きさに応じて、前記画像入力機能によって入力した
画像に相当する画像に合成するための図形や画像の内
容、位置を決定するか、または、前記相当する画像を変
換する内容、位置を決定する図形計算機能と、 前記画像入力機能によって入力した画像に対し、前記図
形計算機能によって決定した図形や画像を合成するか、
または、前記画像入力機能によって入力した画像を前記
図形計算機能によって決定した内容で変換する画像合成
機能と、 前記画像合成機能によって合成、または、変換された画
像を出力する画像出力機能と、 を実現するプログラムを記録したことを特徴とする画像
処理方法の記録媒体。
12. An image input function for inputting an image, a face area detection function for detecting a face area of a target person in the image input by the image input function, and an eye from the face area detected by the face area detection function. A face part position detection function of detecting the position of a face part such as a nose, and a face area detected by the face area detection function, or
According to the position and size of the face part detected by the face part position detection function, determine the content and position of a figure or image to be combined with an image corresponding to the image input by the image input function, or A graphic calculation function for determining the content and position of converting the corresponding image, and combining the image or image determined by the graphic calculation function with the image input by the image input function,
Alternatively, an image synthesizing function of converting an image input by the image input function with contents determined by the graphic calculation function, and an image output function of outputting an image synthesized or converted by the image synthesizing function are realized. A recording medium for an image processing method characterized by recording a program to be executed.
【請求項13】画像に所定の図形や画像を合成させる場
合において、 前記所定の図形や画像に関する登録図形パターン情報の
記録媒体であって、 前記登録図形パターン情報は、 前記画像中の対象者のある特徴点を基準として図形や画
像を構成する図形構成点へのベクトル情報を含むことを
特徴とする登録図形パターン情報を記録した記録媒体。
13. When a predetermined figure or image is combined with an image, the recording medium is a recording medium of registered figure pattern information related to the predetermined figure or image, wherein the registered figure pattern information is A recording medium on which registered graphic pattern information characterized by including vector information on graphic composing points constituting a graphic or an image based on a certain characteristic point.
【請求項14】前記登録図形パターン情報の構成が、 前記登録図形パターン情報の追加、削除、編集、また
は、交換が可能な構成であることを特徴とする請求項1
3記載の登録図形パターン情報を記録した記録媒体。
14. The configuration of the registered graphic pattern information, wherein the registered graphic pattern information can be added, deleted, edited, or exchanged.
3. A recording medium on which the registered figure pattern information described in 3 is recorded.
JP12630899A 1999-05-06 1999-05-06 Image processing apparatus, image processing method, and recording medium recording image processing program Expired - Fee Related JP3810943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12630899A JP3810943B2 (en) 1999-05-06 1999-05-06 Image processing apparatus, image processing method, and recording medium recording image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12630899A JP3810943B2 (en) 1999-05-06 1999-05-06 Image processing apparatus, image processing method, and recording medium recording image processing program

Publications (2)

Publication Number Publication Date
JP2000322588A true JP2000322588A (en) 2000-11-24
JP3810943B2 JP3810943B2 (en) 2006-08-16

Family

ID=14931984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12630899A Expired - Fee Related JP3810943B2 (en) 1999-05-06 1999-05-06 Image processing apparatus, image processing method, and recording medium recording image processing program

Country Status (1)

Country Link
JP (1) JP3810943B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352258A (en) * 2001-05-25 2002-12-06 Sharp Corp Image processing apparatus, image processing method, image processing program, and recording medium storing image processing program
JP2004030007A (en) * 2002-06-24 2004-01-29 Digital Fashion Ltd Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP2004072655A (en) * 2002-08-09 2004-03-04 Ricoh Co Ltd ROI area setting device, electronic camera device, ROI area setting method, program, recording medium
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Image processing method and apparatus
JP2004193941A (en) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> Arbitrary viewpoint image transmission method and its implementation device, and its processing program and recording medium
WO2005076210A1 (en) * 2004-02-05 2005-08-18 Vodafone K.K. Image processing method, image processing apparatus, and mobile communication terminal apparatus
JP2006053718A (en) * 2004-08-11 2006-02-23 Noritsu Koki Co Ltd Photo processing device
KR100582784B1 (en) * 2002-10-17 2006-05-23 엘지전자 주식회사 Image Processing Method of Video Communication System
WO2006070680A1 (en) * 2004-12-28 2006-07-06 Oki Electric Industry Co., Ltd. Image composition device
US7239741B2 (en) 2003-01-07 2007-07-03 Kabushiki Kaisha Toshiba Image processing device executing image processing on input image and processing method for the same
JP2007272435A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Facial feature extraction apparatus and facial feature extraction method
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
WO2010073432A1 (en) * 2008-12-24 2010-07-01 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
JP2010152556A (en) * 2008-12-24 2010-07-08 Sony Computer Entertainment Inc Image processor and image processing method
JP2011192189A (en) * 2010-03-16 2011-09-29 Nikon Corp Glasses vending system, lens company terminal, frame company terminal, glasses vending method, and glasses vending program
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
US8290299B2 (en) 2005-05-25 2012-10-16 Vodafone Group Plc Object outputting method and information processing apparatus
JP2016529752A (en) * 2013-05-28 2016-09-23 トムソン ライセンシングThomson Licensing Image editing transmission to subordinate video sequences via dense motion fields
WO2017094504A1 (en) * 2015-11-30 2017-06-08 ソニー株式会社 Image processing device, image processing method, image capture device, and program
CN112802162A (en) * 2021-02-02 2021-05-14 网易(杭州)网络有限公司 Face adjustment method and device for virtual character, electronic device and storage medium
WO2025234215A1 (en) * 2024-05-10 2025-11-13 ソニーグループ株式会社 Information processing system, information processing method, and computer program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5451883B2 (en) * 2010-06-30 2014-03-26 Necソフト株式会社 Head detection method, head detection device, attribute determination method, attribute determination device, program, recording medium, and attribute determination system

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352258A (en) * 2001-05-25 2002-12-06 Sharp Corp Image processing apparatus, image processing method, image processing program, and recording medium storing image processing program
JP2004030007A (en) * 2002-06-24 2004-01-29 Digital Fashion Ltd Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP2004072655A (en) * 2002-08-09 2004-03-04 Ricoh Co Ltd ROI area setting device, electronic camera device, ROI area setting method, program, recording medium
KR100582784B1 (en) * 2002-10-17 2006-05-23 엘지전자 주식회사 Image Processing Method of Video Communication System
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Image processing method and apparatus
JP2004193941A (en) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> Arbitrary viewpoint image transmission method and its implementation device, and its processing program and recording medium
US7239741B2 (en) 2003-01-07 2007-07-03 Kabushiki Kaisha Toshiba Image processing device executing image processing on input image and processing method for the same
US7840087B2 (en) 2003-07-31 2010-11-23 Canon Kabushiki Kaisha Image processing apparatus and method therefor
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
WO2005076210A1 (en) * 2004-02-05 2005-08-18 Vodafone K.K. Image processing method, image processing apparatus, and mobile communication terminal apparatus
US7864198B2 (en) 2004-02-05 2011-01-04 Vodafone Group Plc. Image processing method, image processing device and mobile communication terminal
JP2006053718A (en) * 2004-08-11 2006-02-23 Noritsu Koki Co Ltd Photo processing device
WO2006070680A1 (en) * 2004-12-28 2006-07-06 Oki Electric Industry Co., Ltd. Image composition device
US8290299B2 (en) 2005-05-25 2012-10-16 Vodafone Group Plc Object outputting method and information processing apparatus
JP2007272435A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Facial feature extraction apparatus and facial feature extraction method
JP2010152556A (en) * 2008-12-24 2010-07-08 Sony Computer Entertainment Inc Image processor and image processing method
WO2010073432A1 (en) * 2008-12-24 2010-07-01 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
JP2015099603A (en) * 2010-02-24 2015-05-28 大日本印刷株式会社 Image display system
JP2011192189A (en) * 2010-03-16 2011-09-29 Nikon Corp Glasses vending system, lens company terminal, frame company terminal, glasses vending method, and glasses vending program
JP2016529752A (en) * 2013-05-28 2016-09-23 トムソン ライセンシングThomson Licensing Image editing transmission to subordinate video sequences via dense motion fields
WO2017094504A1 (en) * 2015-11-30 2017-06-08 ソニー株式会社 Image processing device, image processing method, image capture device, and program
CN112802162A (en) * 2021-02-02 2021-05-14 网易(杭州)网络有限公司 Face adjustment method and device for virtual character, electronic device and storage medium
CN112802162B (en) * 2021-02-02 2024-05-10 网易(杭州)网络有限公司 Face adjusting method and device for virtual character, electronic equipment and storage medium
WO2025234215A1 (en) * 2024-05-10 2025-11-13 ソニーグループ株式会社 Information processing system, information processing method, and computer program

Also Published As

Publication number Publication date
JP3810943B2 (en) 2006-08-16

Similar Documents

Publication Publication Date Title
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
US11410457B2 (en) Face reenactment
US10922865B2 (en) Information processing apparatus, information processing method, and program
CN111787242B (en) Method and apparatus for virtual fitting
JP2918499B2 (en) Face image information conversion method and face image information conversion device
JP4449723B2 (en) Image processing apparatus, image processing method, and program
JP5463866B2 (en) Image processing apparatus, image processing method, and program
CN110766777A (en) Virtual image generation method and device, electronic equipment and storage medium
JP2001109913A (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2005242566A (en) Image composition apparatus and method
CN110796721A (en) Color rendering method and device of virtual image, terminal and storage medium
JP3444148B2 (en) Eyebrow drawing method
JP2014029566A (en) Image processing apparatus, image processing method, and image processing program
CN118411746A (en) A face fusion method, system, electronic device and storage medium
JPH06118349A (en) Eyewear wearing simulation device
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
KR101738896B1 (en) Fitting virtual system using pattern copy and method therefor
JP4148165B2 (en) Image composition to create a composite image by overlaying images
JP2001307123A (en) Portrait creation method and apparatus with facial expression deformation, portrait creation system, transmitter and receiver for portrait creation system, and recording medium recording portrait creation program and portrait creation program
CN110147511B (en) Page processing method and device, electronic equipment and medium
JPH0888850A (en) Expression reproducing device
JP5207941B2 (en) Image processing apparatus, image processing method, and program
Nunes et al. Talking avatar for web-based interfaces
JP2024017389A (en) Image processing device, image processing method and program
CN117078827A (en) Method, device and equipment for generating texture map

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051215

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060525

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090602

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100602

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100602

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110602

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees