[go: up one dir, main page]

JPH09233423A - Image data converting method for digital printer - Google Patents

Image data converting method for digital printer

Info

Publication number
JPH09233423A
JPH09233423A JP8039767A JP3976796A JPH09233423A JP H09233423 A JPH09233423 A JP H09233423A JP 8039767 A JP8039767 A JP 8039767A JP 3976796 A JP3976796 A JP 3976796A JP H09233423 A JPH09233423 A JP H09233423A
Authority
JP
Japan
Prior art keywords
area
image
image data
size
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8039767A
Other languages
Japanese (ja)
Other versions
JP3733165B2 (en
Inventor
Takaaki Terashita
隆章 寺下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP03976796A priority Critical patent/JP3733165B2/en
Publication of JPH09233423A publication Critical patent/JPH09233423A/en
Application granted granted Critical
Publication of JP3733165B2 publication Critical patent/JP3733165B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a high-quality digital image based on a face area extracted from a film image. SOLUTION: R, G and B signals are converted into luminance signals and chrominance signals by a converting means 11. The face area is extracted by a face area extraction processing means 12. A face area size is found by a face size estimating means 13. Based on a face area size signal, an edge emphasizing means 14 performs edge emphasis processing to the luminance signals. Concerning this edge emphasis processing, the more the face size is reduced, the more the degree of edge emphasis is improved. A gradation correcting means 20 and a color tone correcting means 22 perform correction for eliminating the deviation of input and output systems. The luminance signals and chrominance signals are converted into the R, G and B signals by a converting means 21. Based on these converted image data, an image recording controlled variable converting means 23 converts an image into a recording controlled variable and afterwards, the image is recorded by an image recording means 24. Since the image is processed corresponding to the face area size, the suitable method of picture quality improvement corresponding to scenes can be adopted and picture quality can be improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、写真原画やデジタ
ルカメラ等からの画像データをデジタル画像処理して画
像を記録するデジタルプリンタの画像データ変換方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data conversion method of a digital printer for digitally image-processing original image data of a photograph or digital camera and recording the image.

【0002】[0002]

【従来の技術】写真フイルムを撮像して得られた画像デ
ータに基づき記録材料に画像を記録する場合に、記録す
る画像の品質を上げるために種々の画像処理が行われて
いる。例えば、特開平7−159904号公報では、写
真撮影された画像に対して撮影の際に入力された撮影情
報により画質補正を行っている。撮影情報としては、撮
影距離情報,連続撮影情報,フラッシュの発光情報,シ
ャッタスピード情報,被写体輝度情報などがあり、画質
補正として、エッジ(輪郭)強調やコントラスト強調を
行っている。例えば、撮影距離情報により、撮影距離が
基準距離例えば2m以上のときに、エッジ強調の画質補
正を行っている。これにより、被写体距離が長くなって
ピントが甘くなり画像にボケが生じても、この画像のボ
ケを改善することができる。また、特開平4−2844
42号公報では、撮影情報によって階調を変化させる補
正量を求める手段と、この補正量により階調を変化させ
る手段とを有するプリンタが提案されている。
2. Description of the Related Art When an image is recorded on a recording material based on image data obtained by picking up an image of a photographic film, various kinds of image processing are performed to improve the quality of the recorded image. For example, in Japanese Patent Laid-Open No. 7-159904, image quality correction is performed on a photographed image based on photographing information input at the time of photographing. The shooting information includes shooting distance information, continuous shooting information, flash light emission information, shutter speed information, subject brightness information, and edge (contour) enhancement and contrast enhancement are performed as image quality correction. For example, according to the shooting distance information, when the shooting distance is a reference distance, for example, 2 m or more, the image quality is corrected by edge enhancement. This makes it possible to improve the blurring of the image even if the subject distance becomes long and the focus becomes unfocused and the image becomes blurry. In addition, JP-A-4-2844
Japanese Patent Laid-Open No. 42-42 proposes a printer having a means for obtaining a correction amount for changing the gradation according to the photographing information and a means for changing the gradation according to the correction amount.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
エッジ強調補正は、写真撮影の際に記憶した撮影距離情
報などの撮影情報を用いるため、撮影情報が記録されて
いない写真フイルムに対しては適用することができない
という問題がある。また、撮影距離や撮影倍率等を固定
して撮影を行うカメラで撮影した写真フイルムの画像
や、デジタルカメラ等で撮影した画像に対しても適用す
ることができないという問題がある。
However, since the above-mentioned edge enhancement correction uses shooting information such as shooting distance information stored at the time of shooting, it is applied to a photo film in which shooting information is not recorded. There is a problem that you cannot do it. Further, there is a problem that it cannot be applied to an image of a photographic film taken by a camera that shoots with a fixed shooting distance, shooting magnification, etc., or an image taken by a digital camera or the like.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載のデジタルプリンタの画像データ変換
方法は、画像データに基づき人物の顔画像エリアを抽出
し、この顔画像エリアの大きさ、又は顔画像エリアの有
無によって画像処理方法を変更するようにしたものであ
る。画像処理方法の変更は、エッジ強調の大きさの変更
や、階調の変更などが好ましい。特に、顔画像エリアが
小さくなるにしたがいエッジ強調の度合いを次第に大き
くすることが好ましい。また、顔画像エリアが小さくな
るにしたがい階調を次第に硬くしてもよい。
In order to achieve the above object, an image data conversion method of a digital printer according to claim 1 extracts a face image area of a person based on the image data and determines the size of the face image area. Alternatively, the image processing method is changed depending on the presence or absence of the face image area. The image processing method is preferably changed by changing the size of edge enhancement or changing the gradation. In particular, it is preferable to gradually increase the degree of edge enhancement as the face image area becomes smaller. Further, the gradation may be gradually hardened as the face image area becomes smaller.

【0005】また、請求項6記載のデジタルプリンタの
画像データ変換方法は、画像データに基づき人物の顔画
像エリアを抽出し、この顔画像エリアとこれを除いた背
景エリアとに対し、異なる画像処理方法を適用したもの
である。この場合に、顔画像エリアが小さくなるにした
がいエッジ強調の度合いを大きくし、又は顔画像エリア
が小さくなるにしたがい階調を硬くすることが好まし
い。また、顔画像エリアのサイズに対し基準エリアサイ
ズを決めておき、この基準エリアサイズの場合に、顔画
像エリアと背景エリアとに対するエッジ強調度合いを同
じに設定し、基準エリアサイズよりも顔エリアが小さい
場合には背景エリアのエッジ強調度合いを顔画像エリア
のエッジ強調度合いよりも大きくし、基準エリアサイズ
よりも顔エリアが大きい場合には背景エリアのエッジ強
調度合いを顔画像エリアのエッジ強調度合いよりも小さ
くしたことが好ましい。更に、顔画像エリアのサイズに
対し最小エリアサイズ及び最大エリアサイズを決めてお
き、顔画像エリアサイズが最小エリアサイズ及び基準エ
リアサイズの間にある場合には、顔画像エリアサイズが
最小エリアサイズ又は基準エリアサイズに近づくに従い
両エリアに対するエッジ強調度合いの差が次第に小さく
なるように設定し、顔画像エリアサイズが基準エリアサ
イズ及び最大エリアサイズの間にある場合には、顔画像
エリアサイズが最大エリアサイズに近づくに従い両エリ
アに対するエッジ強調度合いの差が次第に大きくなるよ
うに設定することが好ましい。また、エッジ強調の他に
階調の硬軟度合いを変更する場合に上記のような設定を
してもよい。更に、画像データを輝度信号と色信号とに
分離して、輝度信号に対し前記エッジ強調を行うことが
好ましく、この場合には、エッジ強調による色調の変化
を抑えることができる。
According to a sixth aspect of the image data conversion method of the digital printer, a face image area of a person is extracted based on the image data, and different image processing is performed on the face image area and the background area excluding the face image area. The method is applied. In this case, it is preferable to increase the degree of edge enhancement as the face image area becomes smaller, or to make the gradation harder as the face image area becomes smaller. In addition, a reference area size is determined for the size of the face image area, and in the case of this reference area size, the degree of edge enhancement for the face image area and the background area is set to be the same, and the face area is larger than the reference area size. If it is small, the edge emphasis degree of the background area is made larger than that of the face image area.If the face area is larger than the reference area size, the edge emphasis degree of the background area is made larger than that of the face image area. It is preferable to make it smaller. Further, a minimum area size and a maximum area size are determined for the size of the face image area, and if the face image area size is between the minimum area size and the reference area size, the face image area size is the minimum area size or The difference between the edge enhancement degrees for both areas is set to gradually decrease as the area approaches the reference area size. If the face image area size is between the reference area size and the maximum area size, the face image area size is set to the maximum area. It is preferable to set such that the difference between the edge enhancement degrees for both areas gradually increases as the size approaches. In addition to the edge enhancement, the above setting may be performed when changing the degree of hardness of gradation. Further, it is preferable that the image data is separated into a luminance signal and a color signal, and the edge enhancement is performed on the luminance signal. In this case, a change in color tone due to the edge enhancement can be suppressed.

【0006】[0006]

【発明の実施の形態】図1は、本発明を実施したデジタ
ルプリンタを示す機能ブロック図である。画像信号入力
手段10には、MDやMOなどの記録媒体、デジタルカ
メラ、カラーフイルムスキャナなどからデジタル化され
たR,G,B画像信号が入力され、このR,G,B画像
信号が変換手段11に送られる。なお、アナログのR,
G,B画像信号の場合には、内蔵するA/D変換器によ
りA/D変換される。
1 is a functional block diagram showing a digital printer embodying the present invention. The R, G, B image signals digitized from a recording medium such as MD or MO, a digital camera, a color film scanner, etc. are input to the image signal input means 10, and the R, G, B image signals are converted by the conversion means. Sent to 11. In addition, analog R,
The G and B image signals are A / D converted by the built-in A / D converter.

【0007】変換手段11では、R,G,B画像信号を
輝度信号と色信号とに分離する。輝度及び色信号への変
換は、周知の変換方法、例えば輝度信号と色差信号の他
に、L,a,b空間、L,u* ,v* 空間、L,H,S
などを用いた変換方法により行ってもよい。分離した輝
度信号と色信号とは顔エリア抽出処理手段12に送られ
る。
The converting means 11 separates the R, G and B image signals into a luminance signal and a color signal. The conversion to the luminance and color signals is performed by a known conversion method, for example, in addition to the luminance signal and the color difference signal, L, a, b space, L, u * , v * space, L, H, S.
You may perform by the conversion method using etc. The separated luminance signal and color signal are sent to the face area extraction processing means 12.

【0008】顔エリア抽出処理手段12では顔エリアを
抽出する。顔エリアの抽出は、例えば特開昭52−15
6624号公報や特開昭52−156625号公報に記
載されているように、予め肌色領域に対応する輝度信号
及び色信号の範囲を決定しておき、各画素の輝度信号及
び色信号が肌色領域内にあるときにその点を肌色と判定
する。同様にしてその他の点について肌色か否かを判定
して、この判定結果により、肌色を有する1まとまりの
エリアを肌色エリアとして抽出する。更に、抽出した肌
色エリア内に、目,鼻,口,眉などによる肌色と異なる
エリアが含まれるか否か、これら異なるエリアが予め定
めた所定のパターン(このパターンは各種の撮影シーン
を統計的に処理して抽出されるもので、複数個用意され
る)で配置されているか否か等を判定し、これらの異な
るエリアが所定パターンで配置されている場合に人物の
顔エリアと判定する。なお、上記のような顔判定のため
の複雑なアルゴリズムを実施することなく、単に肌色エ
リアのみから顔エリアと判定してもよい。また、特開平
5−100328号公報、特開平5−165120号公
報のように、色相や彩度の2次元ヒストグラムからクラ
スターを求め、クラスターの内部構造、形状、接続する
外部構造から顔領域を判定する方法などを利用してもよ
い。
The face area extraction processing means 12 extracts a face area. The extraction of the face area is performed, for example, in Japanese Patent Laid-Open No. 52-15
As described in Japanese Patent No. 6624 and Japanese Patent Application Laid-Open No. 52-156625, the range of the luminance signal and the color signal corresponding to the skin color area is determined in advance, and the luminance signal and the color signal of each pixel are set to the skin color area. When it is inside, the point is judged to be skin color. Similarly, it is determined whether or not the other points are flesh-colored, and one group of areas having the flesh-color is extracted as the flesh-colored area based on the determination result. Further, whether or not the extracted skin color area includes areas different from the skin color due to eyes, nose, mouth, eyebrows, etc. is determined by a predetermined pattern (this pattern statistically represents various shooting scenes). It is determined that the person's face area is provided when these different areas are arranged in a predetermined pattern. The face area may be determined only from the skin color area without performing the complicated algorithm for face determination as described above. Further, as in JP-A-5-100328 and JP-A-5-165120, a cluster is obtained from a two-dimensional histogram of hue and saturation, and the face area is determined from the internal structure and shape of the cluster and the external structure to be connected. You may use the method of doing.

【0009】顔サイズ推定手段13は、顔エリアのサイ
ズを特定し、顔エリアサイズ信号を発生する。顔エリア
サイズは、顔として特定されたエリアの一方向(X方
向,Y方向,任意方向)における長さが用いられる。こ
の他に、一方向における画素数、一方向における長さ又
は画素数の最大値、直交する二方向の長さ又は画素数の
平均値、顔エリアの面積、顔エリアの画素数、顔エリア
の面積又は画素数の1/2乗などを用いることができ
る。更には、画面サイズとの比(例えば画面の長辺方向
における顔エリアの長さ:画面の長辺方向の長さ)や、
実際の顔との比として表してもよい。また、複数の顔が
ある場合には、全ての顔エリアにおける顔エリアサイズ
の平均値を用いてもよい。更には、画面の中心位置に近
いものほど重み付き係数を大きくした重み付き平均値を
用いてもよい。顔サイズ推定手段13の顔エリアサイズ
信号と輝度信号とは、エッジ強調手段14に送られる。
The face size estimating means 13 specifies the size of the face area and generates a face area size signal. As the face area size, the length in one direction (X direction, Y direction, arbitrary direction) of the area specified as a face is used. In addition, the number of pixels in one direction, the maximum value of the length or the number of pixels in one direction, the average value of the length or the number of pixels in two orthogonal directions, the area of the face area, the number of pixels of the face area, The area or the 1/2 power of the number of pixels can be used. Furthermore, the ratio to the screen size (for example, the length of the face area in the long side direction of the screen: the length in the long side direction of the screen),
It may be expressed as a ratio with the actual face. Further, when there are a plurality of faces, an average value of face area sizes in all face areas may be used. Furthermore, a weighted average value may be used in which the weighted coefficient is increased as the position is closer to the center position of the screen. The face area size signal and the brightness signal of the face size estimating means 13 are sent to the edge enhancing means 14.

【0010】図2に示すように、エッジ強調手段14
は、アンシャープ信号作成部15,ルックアップテーブ
ルメモリ(LUT)16,乗算器17,18、加算器1
9を備えている。アンシャープ信号作成部15は輝度信
号を平均化処理してアンシャープ信号Uを作成する。L
UT16は重み付け係数発生手段であり、顔エリアサイ
ズ信号Fに基づいて、重み付け係数P(F),Q(F)
を発生する。これらアンシャープ信号U,輝度信号Y,
重み付け係数P(F),Q(F)は、乗算器17,18
で乗算された後に加算器19で加算され、エッジ強調処
理後の輝度信号Tが求められる。この輝度信号Tは階調
補正手段20に送られる。
As shown in FIG. 2, the edge enhancing means 14
Is an unsharp signal generator 15, a look-up table memory (LUT) 16, multipliers 17 and 18, an adder 1
9 is provided. The unsharp signal creation unit 15 creates an unsharp signal U by averaging the luminance signal. L
The UT 16 is a weighting coefficient generating means, and based on the face area size signal F, the weighting coefficients P (F) and Q (F).
Occurs. These unsharp signal U, luminance signal Y,
The weighting factors P (F), Q (F) are calculated by the multipliers 17, 18
After being multiplied by, the result is added by the adder 19 to obtain the luminance signal T after the edge enhancement processing. This brightness signal T is sent to the gradation correction means 20.

【0011】上記輝度信号Tは例えば次の数式1で表さ
れる。
The brightness signal T is expressed by the following equation 1, for example.

【数1】T=P(F)・U+Q(F)・Y[Equation 1] T = P (F) · U + Q (F) · Y

【0012】なお、数式1において、Kを以下のように
設定する場合には、以下の数式2に置き換えることがで
きる。
When K is set as follows in the equation 1, it can be replaced by the following equation 2.

【数2】 T=Y+K(Y−U) P(F)=−K(但しKはエッジ強調係数であり、−1
≦K≦1) Q(F)=1+K なお、上記のように設定するとP(F)+Q(F)は1
となるが、Q(F)の値(1+K)の「1」を変更して
もよく、この場合には当然のことながらP(F)+Q
(F)は1にならない。
## EQU00002 ## T = Y + K (Y-U) P (F) =-K (where K is an edge enhancement coefficient, -1
≦ K ≦ 1) Q (F) = 1 + K When set as above, P (F) + Q (F) is 1
However, the value of Q (F) (1 + K) may be changed to "1". In this case, P (F) + Q
(F) does not become 1.

【0013】図3は、LUT16に記憶されるテーブル
データの一例を表す線図であり、横軸に顔エリアサイズ
fが、縦軸にエッジ強調係数Kがとってある。上記エッ
ジ強調係数Kは、顔エリアサイズfが小さくなる程に大
きくなる。また、顔が存在しない場合には所定の値aが
与えられる。逆に顔エリアサイズfが大きくなる程、エ
ッジ強調係数Kが小さくなる。そして、顔エリアサイズ
fがある大きさ以上になると、所定の値b(b<a)が
与えられる。このようにすることで、顔エリアサイズf
が小さくなると、これにしたがいエッジ強調の度合いが
次第に大きくなり、目鼻がより鮮明になる。また、人物
が写っていない場合には撮影距離に関わらずシステムに
おける最大のエッジ強調が行われる。また、顔エリアサ
イズfが大きくなると、これにしたがいエッジ強調の度
合いが次第に小さくなり、入力装置のノイズや顔の毛穴
などが目立つことなく、しかも皮膚感も失われることも
ない。なお、顔エリアサイズfが大きいときにエッジ強
調をしすぎると入力装置のノイズや毛穴が目立ったり、
皮膚感が失われるので、bは「0」よりも小さくするこ
とが好ましい。
FIG. 3 is a diagram showing an example of table data stored in the LUT 16. The horizontal axis represents the face area size f, and the vertical axis represents the edge emphasis coefficient K. The edge emphasis coefficient K increases as the face area size f decreases. Further, when there is no face, a predetermined value a is given. Conversely, as the face area size f increases, the edge emphasis coefficient K decreases. Then, when the face area size f exceeds a certain size, a predetermined value b (b <a) is given. By doing this, the face area size f
As becomes smaller, the degree of edge enhancement gradually increases, and the nose and eyes become clearer. Further, when no person is photographed, the maximum edge enhancement in the system is performed regardless of the shooting distance. Further, as the face area size f increases, the degree of edge enhancement gradually decreases accordingly, and noise of the input device, facial pores, etc. are not conspicuous, and the skin feeling is not lost. If the face area size f is large and the edge is emphasized too much, noise and pores of the input device may be noticeable.
Since the skin feel is lost, b is preferably smaller than "0".

【0014】図1に示すように、階調補正手段20は、
エッジ強調された輝度信号Tに対して階調補正を行う。
この階調補正は、入力系記録媒体及び出力系記録媒体等
の相違に起因するずれなどを修正するために行われる。
階調補正された輝度信号は変換手段21に送られる。ま
た、色調補正手段22は色調補正を行う。この色調補正
は、入力系及び出力系記録媒体の相違等に起因する色調
のずれなどを修正するために行われる。これら階調補正
処理や色調補正処理は周知の方法を用いて行われる。色
調補正された輝度信号は変換手段21に送られる。な
お、これら階調補正や色調補正は、顔エリア抽出処理手
段12で抽出された顔エリアの平均濃度や色調を基準に
して行うと、仕上りがより一層良くなる。
As shown in FIG. 1, the gradation correction means 20 includes
Gradation correction is performed on the edge-emphasized luminance signal T.
This gradation correction is performed in order to correct a shift or the like caused by a difference between the input recording medium and the output recording medium.
The gradation-corrected luminance signal is sent to the conversion means 21. Further, the color tone correction unit 22 performs color tone correction. This color tone correction is performed in order to correct a color tone shift or the like caused by a difference between the input system and the output system recording medium. These gradation correction processing and color tone correction processing are performed using known methods. The color tone-corrected luminance signal is sent to the conversion means 21. If these gradation correction and color tone correction are performed with reference to the average density and color tone of the face area extracted by the face area extraction processing means 12, the finish will be further improved.

【0015】変換手段21は、輝度信号及び色信号から
R,G,B信号に変換する。このR,G,B信号は、画
像記録制御量変換手段23に送られる。画像記録制御量
変換手段23では、R,G,B信号を画像記録制御量に
変換するとともに、D/A変換なども行う。これらR,
G,B信号への変換処理や、画像記録制御量変換処理等
は周知の方法が用いられる。変換処理された画像記録制
御量は画像記録手段24に送られ、ここで画像記録制御
量がレーザー光等の光信号強度や液晶シャッタの開口率
に変換され、これによりカラー感光材料に画像が記録さ
れる。なお、変換手段21において、本スキャン画像デ
ータから直接に画像記録制御量に変換してもよい。
The conversion means 21 converts the luminance signal and the color signal into R, G and B signals. The R, G, B signals are sent to the image recording control amount conversion means 23. The image recording control amount conversion means 23 converts the R, G, B signals into image recording control amounts and also performs D / A conversion. These R,
Well-known methods are used for the conversion processing into G and B signals, the image recording control amount conversion processing, and the like. The converted image recording control amount is sent to the image recording means 24, where the image recording control amount is converted into the optical signal intensity of laser light or the like and the aperture ratio of the liquid crystal shutter, whereby an image is recorded on the color photosensitive material. To be done. The conversion unit 21 may directly convert the main scan image data into the image recording control amount.

【0016】上記実施形態では、変換手段21による
R,G,B信号への変換前に階調補正や色調補正を行っ
たが、これはR,G,B信号に変換した後に、周知の階
調変換や色補正を行ってもよい。また、上記実施形態で
は、エッジ強調をする際に、顔エリアサイズ信号Fに基
づきLUT16から対応する重み付け係数P(F),Q
(F)を求めたが、このLUT16を用いる代わりに、
演算器によりP(F),Q(F)の関数式を演算しても
よい。また、上記実施形態では、人物が写っていない場
合に最大のエッジ強調を行ったが、この他に、適当なエ
ッジ強調度合いに別個に設定してもよい。また、上記実
施形態ではR,G,B信号から輝度信号及び色信号に変
換する変換手段11を設けたが、最初から輝度信号と色
信号とに分離された状態で入力される場合には、変換手
段11を用いることなく、顔エリア抽出処理手段12に
輝度信号と色信号とを入力する。
In the above embodiment, the gradation correction and the color tone correction are performed before the conversion into the R, G, B signals by the conversion means 21. Tone conversion and color correction may be performed. Further, in the above-described embodiment, when edge enhancement is performed, the corresponding weighting factors P (F) and Q are calculated from the LUT 16 based on the face area size signal F.
(F) was obtained, but instead of using this LUT16,
The functional expressions of P (F) and Q (F) may be calculated by a calculator. Further, in the above-described embodiment, the maximum edge enhancement is performed when no person is shown, but in addition to this, an appropriate edge enhancement degree may be set separately. Further, in the above embodiment, the conversion means 11 for converting the R, G, B signals into the luminance signal and the color signal is provided. However, in the case where the luminance signal and the color signal are input in the separated state from the beginning, The luminance signal and the color signal are input to the face area extraction processing means 12 without using the conversion means 11.

【0017】次に、ネガフイルムに記録された画像を撮
像してプリントを行う別の実施形態について説明する。
図4は、この実施形態におけるデジタルプリンタの機能
ブロック図を示すものである。このデジタルプリンタ
は、大きく分けて、画像信号入力手段30と、画像デー
タ蓄積手段31と、階調バランス検出手段32と、階調
変換特性設定手段33と、変換テーブル作成手段34
と、顔エリア抽出処理手段12と、顔サイズ推定手段1
3と、画像信号処理手段35と、画像記録制御量変換手
段23,及び画像記録手段24とを備えている。なお、
図1に示す上記実施形態と同一構成部材には同一符号が
付してある。
Next, another embodiment for picking up an image recorded on a negative film and printing the image will be described.
FIG. 4 shows a functional block diagram of the digital printer in this embodiment. This digital printer is roughly divided into an image signal input unit 30, an image data storage unit 31, a gradation balance detection unit 32, a gradation conversion characteristic setting unit 33, and a conversion table creation unit 34.
Face area extraction processing means 12 and face size estimation means 1
3, image signal processing means 35, image recording control amount converting means 23, and image recording means 24. In addition,
The same components as those in the embodiment shown in FIG. 1 are designated by the same reference numerals.

【0018】画像信号入力手段30は、周知のフイルム
スキャナから構成されており、ネガフイルムの画像を読
み取って画像信号に変換する。この画像信号入力手段3
0は、本スキャンとプレスキャンとが行えるようになっ
ており、プレスキャンでは、ネガフイルムの画像を数千
点の画像データとして読みだす。なお、プレスキャンに
おける画像データ数は数千点に限られることなく、例え
ば処理時間の短縮やプリント品質の向上などの要請に応
じて、数百〜数万点の画像データが読みだせればよい。
また、本スキャンでは、ネガフイルムの画像を数十万〜
数百万点の画像データとして読みだす。なお、プレスキ
ャンと本スキャンとを行う他に、本スキャンの画像デー
タを結合して、数百画素から数万画素の画素数に減少さ
せ、これをプレスキャン画像データとして用いてもよ
い。
The image signal input means 30 is composed of a well-known film scanner and reads an image of a negative film and converts it into an image signal. This image signal input means 3
In 0, the main scan and the prescan can be performed. In the prescan, the image of the negative film is read as the image data of several thousand points. Note that the number of image data in the pre-scan is not limited to several thousand, and several hundred to tens of thousands of image data may be read out in response to a request such as shortening of processing time or improvement of print quality.
In this scan, the image of the negative film is in the hundreds of thousands.
Read out as millions of image data. In addition to performing the prescan and the main scan, the image data of the main scan may be combined to reduce the number of pixels from hundreds of pixels to tens of thousands of pixels, and this may be used as the prescan image data.

【0019】図4において、本スキャンの画像データの
流れは破線で表示されており、その他のプレスキャンの
画像データ等の流れは実線で表示されている。画像信号
入力手段30からの本スキャンによる画像データは顔エ
リア抽出処理手段12と画像信号処理手段35とに送ら
れる。また、画像信号入力手段30からのプレスキャン
画像データは、画像データ蓄積手段31に送られる。
In FIG. 4, the flow of image data of the main scan is shown by a broken line, and the flow of image data of other prescans is shown by a solid line. The image data of the main scan from the image signal input means 30 is sent to the face area extraction processing means 12 and the image signal processing means 35. The prescan image data from the image signal input means 30 is sent to the image data storage means 31.

【0020】フイルム種識別手段40はバーコードリー
ダーから構成されており、読取り対象のカラーネガフイ
ルムのDX用バーコードを読み取って、フイルムの種類
を識別する。このフイルム種別信号は画像データ蓄積手
段31及び階調特性データ記憶手段41に送られる。な
お、磁気情報が記録されたネガフイルムに対しては磁気
読取り装置が用いられる。
The film type identifying means 40 is composed of a bar code reader, and reads the DX bar code of the color negative film to be read to identify the type of film. This film type signal is sent to the image data storage means 31 and the gradation characteristic data storage means 41. A magnetic reader is used for a negative film on which magnetic information is recorded.

【0021】画像データ蓄積手段31は、データ選択部
とデータ蓄積部とから構成されている。データ選択部
は、フイルム種別毎にプレスキャン画像データを予め定
めた選択基準にしたがい選択する。そして、この選択し
た画像データをデータ蓄積部に送る。選択基準として
は、データ蓄積部で蓄積した該当するフイルム種の画像
データの平均値が用いられる。したがって、平均値を基
準として所定範囲内の画像データのみが選択され、これ
がデータ蓄積部で蓄積される。なお、平均値の代わり
に、最小二乗法などの統計的手法により決定した値を選
択基準にしてもよい。このようにして選択した画像デー
タはほぼグレー、またはグレーに近い一定範囲の被写体
色の画像濃度となる。
The image data storage means 31 comprises a data selection section and a data storage section. The data selection unit selects the prescan image data for each film type according to a predetermined selection criterion. Then, the selected image data is sent to the data storage unit. As the selection criterion, the average value of the image data of the corresponding film type stored in the data storage unit is used. Therefore, only the image data within the predetermined range is selected based on the average value, and this is stored in the data storage unit. Instead of the average value, a value determined by a statistical method such as the least square method may be used as the selection criterion. The image data selected in this way has an image density of a subject color of a gray or a certain range close to gray.

【0022】データ蓄積部は、フイルム種別信号に基づ
き対応する記憶エリアに、画像データのG濃度に対する
R濃度と、G濃度に対するB濃度と、これらの画像デー
タ数を加算して蓄積する。本実施形態では、G濃度を画
像データの分類基準として用いている。そして、画像デ
ータのG濃度値が、例えば0.01間隔や0.1間隔で
分類したレベルのどのレベルに該当するかを判定し、該
当するレベルにR濃度,B濃度を蓄積する。同時に蓄積
データ数もカウントして記憶する。次に、蓄積画像デー
タを蓄積データ数で割って平均値を求める。なお、画像
データの蓄積方法は例えば特開平3−53235号公報
に詳しく説明されている。このようにして求めた多数の
蓄積データの平均値は一定で、グレー又はグレーに近い
色になる。蓄積が進むにしたがってこのフイルム種にお
ける固有のデータが精度よく得られるようになる。
The data storage section stores the R density corresponding to the G density of the image data, the B density corresponding to the G density, and the number of these image data in the corresponding storage area based on the film type signal. In this embodiment, the G density is used as a classification standard for image data. Then, it is determined to which level the G density value of the image data corresponds to, for example, a level classified at 0.01 intervals or 0.1 intervals, and R density and B density are accumulated at the corresponding levels. At the same time, the number of accumulated data is also counted and stored. Next, the accumulated image data is divided by the number of accumulated data to obtain an average value. The method of accumulating image data is described in detail, for example, in Japanese Patent Application Laid-Open No. 3-53235. The average value of a large number of accumulated data obtained in this way is constant and becomes gray or a color close to gray. As the accumulation progresses, the unique data of this film species can be obtained with high accuracy.

【0023】階調バランス検出手段32は、画像データ
蓄積手段31からの前記平均値に基づき階調バランス特
性を求める。図5は検出した階調バランス特性の一例を
示すもので、G濃度に対するR濃度の関係を各濃度レベ
ルの蓄積データの平均値で示したものである。各濃度レ
ベルの平均値で表す場合には、図5に示すように多数の
点が線上に並んだ状態になるが、これら各点に対して周
知のスムージング処理を行って直線又は円滑な曲線に修
正する。同様にして、G濃度に対するB濃度の関係を作
成する。
The tone balance detecting means 32 obtains tone balance characteristics based on the average value from the image data accumulating means 31. FIG. 5 shows an example of the detected gradation balance characteristics, and shows the relationship between the R density and the G density as an average value of accumulated data at each density level. When represented by the average value of each density level, a large number of points are arranged on a line as shown in FIG. 5, but a known smoothing process is performed on each of these points to form a straight line or a smooth curve. Fix it. Similarly, the relationship between the B concentration and the G concentration is created.

【0024】図6は、G濃度に対するR濃度の関係を示
す階調バランス特性データの一例であり、図5に示すも
のをスムージング処理したものである。図6において、
記録対象原画における最大濃度値の3色平均濃度を、G
濃度の高濃度側基準値DXGとし、このDXGに基づき
階調バランス特性からDXGに対するR濃度を求め、こ
れをDXRとする。同様にして、G濃度に対するB濃度
の関係からDXBを求める。DXG,DXR,DXBは
DXGにおいてグレー濃度を得るためのR,G,B濃度
である。同様にして、低濃度側基準値のG濃度DIG
(記録対象原画における最小濃度値の3色平均濃度)を
低濃度側基準値として、DIR,DIBを求める。この
ようにして求めたDXR,DXG,DXB、DIR,D
IG,DIBは、原画中の高濃度のグレー被写体、及び
低濃度のグレー被写体の色バランスを表し、これらを高
濃度側基準バランス値、低濃度側基準バランス値とす
る。なお、本実施形態では、高濃度側基準値,低濃度側
基準値として、3色平均濃度を用いたが、最大濃度,最
小濃度の対応する各色を用いてもよい。得られた各基準
バランス値DXR,DXG,DXB、DIR,DIG,
DIBは階調変換特性設定手段33に送られる。
FIG. 6 is an example of the gradation balance characteristic data showing the relationship between the R density and the G density, which is obtained by smoothing the data shown in FIG. In FIG.
The three-color average density of the maximum density value in the recording target original image
The high density side reference value DXG is set, the R density for DXG is obtained from the gradation balance characteristics based on this DXG, and this is set as DXR. Similarly, DXB is obtained from the relationship between the G concentration and the B concentration. DXG, DXR, and DXB are R, G, and B densities for obtaining a gray density in DXG. Similarly, the G concentration DIG of the low concentration side reference value
DIR and DIB are obtained using (the three-color average density of the minimum density value in the original image to be recorded) as the low density side reference value. DXR, DXG, DXB, DIR, D obtained in this way
IG and DIB represent the color balance of the high-density gray subject and the low-density gray subject in the original image, and these are defined as the high-density side reference balance value and the low-density side reference balance value. In this embodiment, the three-color average density is used as the high-density side reference value and the low-density side reference value, but the corresponding colors of maximum density and minimum density may be used. Each of the obtained reference balance values DXR, DXG, DXB, DIR, DIG,
The DIB is sent to the gradation conversion characteristic setting means 33.

【0025】階調変換特性設定手段33は、階調特性デ
ータ記憶手段41からの階調特性データと、階調バラン
ス検出手段32からの各基準バランス値DXR,DX
G,DXB、DIR,DIG,DIBとに基づき階調変
換特性を設定する。先ず、図7に示すように、高濃度側
基準バランス値DXi(iはR,G,Bのいずれか1
つ)と低濃度側基準バランス値DIiを用いて、階調バ
ランス変換テーブルを作成する。すなわち、基準バラン
ス値DXR,DIRに対して予め定めた記録濃度をDh
r、Dsrとし、これらDXRとDhr,DIRとDs
rとで決定される座標点をつなぐことで、階調バランス
変換テーブルを作成する。同様にして、他のB濃度,G
濃度についても階調バランス変換テーブルを作成する。
The gradation conversion characteristic setting means 33 includes the gradation characteristic data from the gradation characteristic data storage means 41 and the reference balance values DXR and DX from the gradation balance detecting means 32.
The gradation conversion characteristic is set based on G, DXB, DIR, DIG, and DIB. First, as shown in FIG. 7, the high-density side reference balance value DXi (i is one of R, G, and B)
3) and the low-density-side reference balance value DIi are used to create a gradation balance conversion table. That is, the recording density determined in advance with respect to the reference balance values DXR and DIR is Dh.
r and Dsr, and DXR and Dhr, DIR and Ds
A gradation balance conversion table is created by connecting the coordinate points determined by r and. Similarly, other B concentration, G
A tone balance conversion table is also created for the density.

【0026】図7は、この階調バランス変換テーブルの
一例を示すもので、横軸に入力値であるR濃度を、縦軸
に出力値であるR濃度をとったものである。このよう
に、記録濃度Dhi,Dsiを定めて、その間の全濃度
に対し一律に割りつけているため、アンダー露光のネガ
像に対しては必ずしも自然な画像として記録することが
できない。このため、以下に示す階調特性データを用い
て、階調変換テーブルを作成する。
FIG. 7 shows an example of this gradation balance conversion table, in which the abscissa axis represents the R density which is the input value, and the ordinate axis represents the R density which is the output value. As described above, since the recording densities Dhi and Dsi are determined and uniformly assigned to all the densities in the meantime, it is not always possible to record a negative image of underexposure as a natural image. Therefore, a gradation conversion table is created using the gradation characteristic data shown below.

【0027】階調特性データは、図4に示す階調特性デ
ータ記憶手段41に記憶されている。階調特性データは
フイルム種別毎に記憶されており、フイルム種識別手段
40からのフイルム種別識別信号により対応する階調特
性データが階調変換特性設定手段33に送られるように
なっている。図8は、階調特性データの一例を示したも
のである。この階調特性データは、カラーネガフイルム
の特性曲線に対応する変換テーブルから構成されてい
る。この変換テーブルは横軸に出力値Dout を縦軸に入
力値Dinをとっている。そして、この変換テーブルに基
づき入力値Dinから出力値Dout が求められる。この階
調特性データからも分かるように、特性曲線の足部及び
肩部は直線ではなく、画像濃度は圧縮されている。特性
曲線の形は感光発色層やカラーフイルム種により異なる
が、フイルムのラチチュードとカメラの露出技術との進
歩により、肩部まで使用することはほとんどない。足部
の特性は各フイルムで近似しているので、平均的な変換
テーブルを用いてよく、特に各色別にもたなくてもよ
い。正確な階調特性を得るにはフイルム種別毎にフイル
ム濃度を測定し、この測定値を用いる。または、試行錯
誤的に階調変換テーブルを設定し、フイルム種別信号に
基づき選択してもよい。また、特性曲線を変換テーブル
の形で表す他に、関数式で表して用いてもよい。
The gradation characteristic data is stored in the gradation characteristic data storage means 41 shown in FIG. The gradation characteristic data is stored for each film type, and the corresponding gradation characteristic data is sent to the gradation conversion characteristic setting unit 33 by the film type identification signal from the film type identification unit 40. FIG. 8 shows an example of the gradation characteristic data. The gradation characteristic data is composed of a conversion table corresponding to the characteristic curve of the color negative film. In this conversion table, the horizontal axis represents the output value Dout and the vertical axis represents the input value Din. Then, the output value Dout is obtained from the input value Din based on this conversion table. As can be seen from the gradation characteristic data, the foot portion and the shoulder portion of the characteristic curve are not straight lines, and the image density is compressed. The shape of the characteristic curve varies depending on the light-sensitive color developing layer and the color film type, but due to the progress of the film latitude and the exposure technology of the camera, it is rarely used even on the shoulder. Since the characteristics of the foot portion are similar for each film, an average conversion table may be used, and there is no particular need for each color. In order to obtain accurate gradation characteristics, the film density is measured for each film type and this measured value is used. Alternatively, a gradation conversion table may be set by trial and error and selection may be made based on the film type signal. Further, the characteristic curve may be expressed by a functional expression instead of being expressed in the form of a conversion table.

【0028】次に、階調変換特性設定手段33は、原画
像の高濃度側基準バランス値DXi、低濃度側基準バラ
ンス値DIiから図8に示す上記階調特性データの使用
範囲を特定し、この範囲の階調特性と、図7に示す階調
バランス変換テーブルとを合成して、図9に示すような
階調変換テーブルを作成する。すなわち、階調バランス
変換テーブルの横軸の値を、図8に示す階調特性データ
を用いて、対応する特性曲線の縦軸の値に置き換えるこ
とで、図9に示すような階調変換テーブルを作成する。
図9の実線表示のものはアンダー露光ネガ画像のもので
あり、破線表示のものは適正露光ネガ画像のものであ
る。実線表示のアンダー露光ネガ画像のものでは、適正
な露光による画像の階調バランス特性に対して、コント
ラスト(DXiとDIiとの差)が小さくなり、シャド
ー部のしまりのない記録画像になるが、低濃度部画像の
濃度が拡大して記録されることにより画像が改良される
ことが判る。他の方法として、DIRからDXRの各値
をDinにセットしてDout に変換し、図7の階調バラン
ステーブルの横軸としても同じ効果が得られる。この階
調変換テーブルの修正は、画像毎に行っても、または修
正済みの複数のテーブルを持ち、これを選択することを
行ってもよい。また、別な方法として、上記階調特性デ
ータは高い精度を必要としないことから、公知な方法、
例えば原画像のプレスキャン画像データから濃度ヒスト
グラムや濃度累積分布を自動的に求めて、これを用いて
もよい。
Next, the gradation conversion characteristic setting means 33 specifies the use range of the gradation characteristic data shown in FIG. 8 from the high density side reference balance value DXi and the low density side reference balance value DIi of the original image, The gradation characteristics in this range and the gradation balance conversion table shown in FIG. 7 are combined to create a gradation conversion table as shown in FIG. That is, by replacing the value on the horizontal axis of the gradation balance conversion table with the value on the vertical axis of the corresponding characteristic curve using the gradation characteristic data shown in FIG. 8, the gradation conversion table as shown in FIG. To create.
The solid line display in FIG. 9 is the underexposure negative image, and the broken line display is the proper exposure negative image. In the case of an underexposed negative image of a solid line display, the contrast (difference between DXi and DIi) becomes small with respect to the gradation balance characteristic of the image by proper exposure, and the recorded image has no shadow portion, It can be seen that the image is improved when the density of the low density portion image is enlarged and recorded. As another method, each value of DIR to DXR is set to Din and converted to Dout, and the same effect can be obtained by using the horizontal axis of the gradation balance table of FIG. The correction of the gradation conversion table may be performed for each image, or a plurality of corrected tables may be prepared and selected. In addition, as another method, since the gradation characteristic data does not require high accuracy, a known method,
For example, the density histogram or density cumulative distribution may be automatically obtained from the prescan image data of the original image and used.

【0029】変換テーブル作成手段34は、記録条件記
憶手段42からの記録条件と画像記録基本量演算手段4
7からの画像記録基本量に基づき、階調変換特性設定手
段33からの階調変換テーブルを修正する。この修正
は、階調変換テーブルの縦軸にそって階調変換特性を画
像記録基本量に基づき上下にシフトさせることにより行
う。この修正した階調変換テーブルは画像処理信号手段
35のLUT45に書き込まれる。このように、画像記
録基本量に基づき階調変換テーブルを修正するのは次の
理由による。再現すべき最大基準値、最小基準値、又は
ハイライト点、シャドー点が正確であれば、画像記録基
本量による修正は必要がない。このようなシーンの典型
例は写真スタジオにおけるポートレートである。ハイラ
イト点は例えば服の白であり、シャドー点は例えば黒髪
である。これに対して、自然界を背景としたポートレー
トは必ずしもそうではない。ハイライト点として空や
雲、反射する白い壁や窓の外、更にストロボ撮影におけ
る前景の白など多数ある。それらを除いて、服の白を正
確に抽出することは非常に困難であり、多くの場合には
画像記録基本量に基づく修正が必要である。
The conversion table creating means 34 is a recording condition and image recording basic amount calculating means 4 from the recording condition storing means 42.
The gradation conversion table from the gradation conversion characteristic setting means 33 is corrected based on the image recording basic amount from 7. This correction is performed by vertically shifting the gradation conversion characteristic based on the image recording basic amount along the vertical axis of the gradation conversion table. This corrected gradation conversion table is written in the LUT 45 of the image processing signal means 35. The reason why the gradation conversion table is modified based on the image recording basic amount is as follows. If the maximum reference value, the minimum reference value, or the highlight point and the shadow point to be reproduced are accurate, the correction by the image recording basic amount is not necessary. A typical example of such a scene is a portrait in a photo studio. The highlight point is, for example, white of clothes, and the shadow point is, for example, black hair. On the other hand, the portrait against the background of the natural world is not necessarily so. There are many highlights, such as the sky and clouds, white walls and windows that reflect light, and white foreground in flash photography. Except for them, it is very difficult to accurately extract the white of clothes, and in many cases, correction based on the image recording basic amount is necessary.

【0030】画像記録基本量演算手段47は、画像信号
入力手段30からのプレスキャン画像データに基づき画
像記録基本量を求める。画像記録基本量は、各記録対象
原画毎に原画の画像濃度から求められる値である。例え
ば、プレスキャン画像データに基づき、全画面エリア、
特定エリア、選択エリアなどの各エリアにおける単純平
均値を算出して、これらが選択的に用いられる。この他
に、画像記録基本量としては、画素の位置に対する重み
付き加算の平均値、選択した画素の平均値や重み付き加
算の平均値などが用いられる。画像記録基本量は、特開
昭55−26569号公報、特開昭61−223731
号公報、特開平2−90140号公報、特開平3−53
235号公報、特開平5−289207号公報等に記載
されているような公知の方法を用いて求めることができ
る。更に、画像記録基本量は、最大値(またはハイライ
ト部濃度)と最小値(またはシャドー部濃度)との重み
付き平均値、各画素に重みを乗じた重み付き平均値(例
えば、濃度ヒストグラムの各級に対し重みを乗じた重み
付け平均値)、累積濃度ヒストグラムの特定頻度または
選択した頻度に相当する値などの原画像の画像を特徴つ
ける値などを画像記録基本量として用いることができ
る。また、濃度制御値を用いてもよく、この場合には、
特開昭51−138435号公報、特開昭53−145
621号公報、特開昭54−28131号公報、特開昭
59−164547号公報等に記載されているような公
知の方法から求めることができる。
The image recording basic amount calculation means 47 obtains the image recording basic amount based on the prescan image data from the image signal input means 30. The image recording basic amount is a value obtained from the image density of the original image for each original image to be recorded. For example, based on the prescan image data, the entire screen area,
A simple average value in each area such as a specific area and a selected area is calculated, and these are selectively used. In addition to this, as the image recording basic amount, an average value of weighted addition for pixel positions, an average value of selected pixels, an average value of weighted addition, and the like are used. The basic amount of image recording is disclosed in JP-A-55-26569 and JP-A-61-223731.
Japanese Patent Laid-Open No. 2-90140, Japanese Patent Laid-Open No. 3-53
It can be determined using a known method such as those described in JP-A No. 235, JP-A No. 5-289207, and the like. Further, the image recording basic amount is a weighted average value of the maximum value (or the density of the highlight portion) and the minimum value (or the density of the shadow portion), or a weighted average value obtained by multiplying each pixel by the weight (for example, the density histogram A value that characterizes the image of the original image, such as a weighted average value obtained by multiplying each class by a weight), a value corresponding to the specific frequency or the selected frequency of the cumulative density histogram, or the like can be used as the image recording basic amount. Alternatively, a density control value may be used. In this case,
JP-A-51-138435, JP-A-53-145
It can be determined by known methods such as those described in JP-A No. 621, JP-A-54-28131, JP-A-59-164547 and the like.

【0031】更に、画像信号処理手段35はエッジ強調
手段46を備えており、本スキャン画像データに対して
エッジ強調処理を行う。このエッジ強調手段46は、図
2に示すエッジ強調手段14と同じ構成になっている。
なお、上記実施形態では輝度信号Yに対してエッジ強調
処理を行うのに対して、本実施形態では本スキャン画像
データに対して行う点のみが異なっているだけであり、
詳細な説明は省略する。このエッジ強調処理済の本スキ
ャン画像データは、上記LUT45により記録画像デー
タへ変換される。この変換により、グレイ画像のときに
R,G,B信号が等しくなるようにされ、色バランスの
優れた記録画像が得られるようになる。記録画像データ
は、画像記録制御量変換手段23で画像記録制御量に変
換された後に、画像記録手段24により記録材料に画像
が記録される。
Further, the image signal processing means 35 is provided with an edge enhancing means 46, and performs edge enhancing processing on the main scan image data. The edge enhancing means 46 has the same structure as the edge enhancing means 14 shown in FIG.
In the above embodiment, the edge enhancement processing is performed on the luminance signal Y, whereas the present embodiment is different only in that it is performed on the main scan image data.
Detailed description is omitted. The edge-enhanced main scan image data is converted into recorded image data by the LUT 45. By this conversion, the R, G, and B signals are made equal in the case of a gray image, and a recorded image with excellent color balance can be obtained. The recorded image data is converted into an image recording control amount by the image recording control amount conversion unit 23, and then an image is recorded on the recording material by the image recording unit 24.

【0032】なお、上記実施形態では、画像記録基本量
演算手段47により画像記録基本量を求めて、これに基
づき階調変換特性を修正したが、この他に、顔エリア抽
出処理手段12からの顔エリアの平均濃度値を用いて変
換テーブル作成手段34で変換テーブルを修正するよう
にしてもよい。この場合に、顔エリアのサイズが所定値
よりも小さい場合や、顔エリアが抽出されないときに
は、画面の全エリアの平均濃度等を顔エリア抽出処理手
段12で求めて、この平均濃度を用いることが好まし
い。
In the above embodiment, the image recording basic amount calculation means 47 calculates the image recording basic amount and the gradation conversion characteristic is corrected based on the obtained basic amount. The conversion table creating means 34 may correct the conversion table using the average density value of the face area. In this case, when the size of the face area is smaller than a predetermined value, or when the face area is not extracted, the face area extraction processing unit 12 may obtain the average density of all the areas of the screen and use this average density. preferable.

【0033】また、上記実施形態では、エッジ強調手段
46において、顔エリアの大きさに応じてエッジ強調の
度合いを変更したが、この他に、図4に示す変換テーブ
ル作成手段34に顔エリアサイズ信号Fを入力して、顔
エリアの大きさに応じて階調を変更してもよい。これ
は、システムの有効なMTF(変調伝達関数)は、「シ
ステムのもつMTF」×「システムのもつガンマ」で表
されるから、鮮鋭度(MTF)の代わりに階調を硬くし
てもMTFは上がることによる。したがって、顔サイズ
が小さくなるにしたがい次第に階調を硬くし、顔が存在
しないか、検出するには小さすぎる場合には所定の値を
用いる。また、顔サイズが大きくなるにしたがい次第に
階調を軟らかく設定する。階調の変更は階調特性カーブ
に顔サイズの大きさから決まる係数を乗じて行う。この
他に、予め定めて複数個記憶しておいた階調特性カーブ
から内挿によって定めてもよい。
In the above embodiment, the edge emphasis means 46 changes the degree of edge emphasis according to the size of the face area. However, in addition to this, the conversion table creating means 34 shown in FIG. The signal F may be input to change the gradation according to the size of the face area. This is because the effective MTF (modulation transfer function) of the system is expressed by “the MTF of the system” × “the gamma of the system”, so that the MTF may be hardened instead of the sharpness (MTF). Depends on going up. Therefore, as the face size becomes smaller, the gradation becomes harder, and a predetermined value is used when the face does not exist or is too small for detection. Further, the gradation is set softer as the face size increases. The gradation is changed by multiplying the gradation characteristic curve by a coefficient determined from the size of the face size. In addition to this, it may be determined by interpolation from a gradation characteristic curve that is determined and stored in advance.

【0034】更には、特定の濃度域に対して階調変更を
行うようにしてもよい。例えば、図10に示すように、
主要部濃度DpOによって修正する場合には、二点鎖線
で示すように階調変換テーブルを修正する。なお、Dp
Oは原画像の主要部濃度を、DpRは記録画像の適正な
主要部濃度を得るのに必要なデータを表す。図10は、
主要部濃度を濃くしてハイライト部の画像の再現を極力
変えないようにして階調を硬くした例である。また、図
11は、主要部濃度を変えないようにし、ハイライト部
の画像濃度を下げるようにして階調を硬くした例であ
る。この他に、主要部濃度からハイライト部の階調をあ
まり変更しないで、主要部濃度よりもシャドー部側の階
調を変更するようにしてもよい。なお、実用的には上記
変換テーブルは滑らかな曲線になるように修正してから
用いられる。
Further, the gradation may be changed in a specific density range. For example, as shown in FIG.
In the case of correction by the main part density DpO, the gradation conversion table is corrected as indicated by the chain double-dashed line. In addition, Dp
O represents the main part density of the original image, and DpR represents the data necessary to obtain the proper main part density of the recorded image. FIG.
This is an example in which the density of the main part is increased to prevent the reproduction of the image in the highlight part from changing as much as possible and the gradation is hardened. Further, FIG. 11 shows an example in which the density of the main part is not changed and the image density of the highlight part is lowered to harden the gradation. In addition to this, the gradation of the highlight part may be changed rather than the density of the main part without changing the gradation of the main part density much. In addition, practically, the conversion table is used after being modified so as to have a smooth curve.

【0035】また、上記主要部濃度DpO,DpRの代
わりに、原画像の画像特徴量から推定した記録画像濃度
の修正量と、記録した全画像の平均濃度の加算値とから
なる値をDpO,DpRとしてもよい。
Further, instead of the main part densities DpO and DpR, a value consisting of the correction amount of the recorded image density estimated from the image feature amount of the original image and the added value of the average densities of all the recorded images is DpO, It may be DpR.

【0036】また、1画像中の顔エリアとこの顔エリア
を除いた背景エリアとで、エッジ強調係数や階調パラメ
ータを変えてもよい。例えば、顔エリアサイズ信号に応
じて、顔エリアのエッジ強調係数、または階調パラメー
タを変更する。または、顔エリアサイズ信号に応じて、
背景エリアのエッジ強調係数、または階調パラメータを
変更する。
The edge emphasis coefficient and the gradation parameter may be changed between the face area in one image and the background area excluding this face area. For example, the edge emphasis coefficient of the face area or the gradation parameter is changed according to the face area size signal. Or, depending on the face area size signal,
Change the edge enhancement coefficient of the background area or the gradation parameter.

【0037】図12は、顔エリアと背景エリアとのエッ
ジ強調係数を個別に変更した一例を示すものである。顔
エリアサイズfに対し基準エリアサイズfsを決めてお
き、この基準エリアサイズfsの場合に、顔エリアと背
景エリアとに対するエッジ強調係数Kを同じ値cに設定
し、基準エリアサイズfsよりも顔エリアサイズfが小
さい場合には背景エリアのエッジ強調係数Kを顔エリア
のエッジ強調係数Kよりも大きくし、基準エリアサイズ
fsよりも顔エリアサイズfが大きい場合には背景エリ
アのエッジ強調係数Kを顔エリアのエッジ強調係数Kよ
りも小さく設定する。更に、顔エリアサイズfに対し最
小エリアサイズfmin 及び最大エリアサイズfmax を決
めておき、顔エリアサイズfが最小エリアサイズfmin
及び基準エリアサイズfsの間にある場合には、顔エリ
アサイズfが最小エリアサイズfmin 又は基準エリアサ
イズfsに近づくに従い両エリアに対するエッジ強調係
数Kの差が次第に小さくなるように設定する。更に、顔
エリアサイズfが基準エリアサイズfs及び最大エリア
サイズfmax の間にある場合には、顔エリアサイズfが
最大エリアサイズfmax に近づくに従い両エリアに対す
るエッジ強調係数Kの差が次第に大きくなるように設定
する。
FIG. 12 shows an example in which the edge emphasis coefficients of the face area and the background area are individually changed. A reference area size fs is determined with respect to the face area size f, and in the case of this reference area size fs, the edge enhancement coefficient K for the face area and the background area is set to the same value c, and the face area size fs is larger than the reference area size fs. When the area size f is small, the edge emphasis coefficient K of the background area is made larger than the edge emphasis coefficient K of the face area, and when the face area size f is larger than the reference area size fs, the edge emphasis coefficient K of the background area. Is set to be smaller than the edge emphasis coefficient K of the face area. Further, a minimum area size fmin and a maximum area size fmax are determined for the face area size f, and the face area size f is the minimum area size fmin.
And between the reference area sizes fs, the difference between the edge enhancement coefficients K for both areas is set to gradually decrease as the face area size f approaches the minimum area size fmin or the reference area size fs. Further, when the face area size f is between the reference area size fs and the maximum area size fmax, the difference between the edge emphasis coefficients K for both areas gradually increases as the face area size f approaches the maximum area size fmax. Set to.

【0038】この場合には、顔エリアサイズfが基準エ
リアサイズfsに比べて大きい場合に、背景のエッジが
強調されない。また、顔エリアサイズfが基準エリアサ
イズfsよりも小さくなり所定値fdに近づくほど、顔
エリアよりも背景エリアのエッジが強調される。そし
て、顔エリアサイズfが所定値fdを越えて更に小さく
なると、両者の差が次第になくなり、顔エリアがないと
き(顔エリアサイズfがfmin になったとき)に、両者
のエッジ強調度合いは同じになる。なお、顔エリアと背
景エリアの境界で大きくエッジ強調係数が変わると、不
自然な画像になるので、これらの境界領域では滑らかに
変化が行われるようにするとよい。また、顔エリアと背
景エリアとのエッジ強調係数は、外部から装置に設定可
能にするとよい。また、エッジ強調の代わりに階調パラ
メータを変更する場合も同様に行うことができる。
In this case, when the face area size f is larger than the reference area size fs, the background edge is not emphasized. Further, as the face area size f becomes smaller than the reference area size fs and approaches the predetermined value fd, the edge of the background area is emphasized more than the face area. Then, when the face area size f exceeds the predetermined value fd and becomes smaller, the difference between the two gradually disappears, and when there is no face area (when the face area size f becomes fmin), the edge emphasis degree of both is the same. become. It should be noted that if the edge emphasis coefficient changes greatly at the boundary between the face area and the background area, an unnatural image will result, so it is advisable to smoothly change these boundary areas. Further, it is preferable that the edge emphasis coefficient of the face area and the background area can be set in the apparatus from the outside. Further, the same can be done when changing the gradation parameter instead of edge enhancement.

【0039】次に、図13を参照して階調特性データに
よる変換に関する別の実施形態について説明する。な
お、図4に示す実施形態と同一構成部材には同一符号が
付してある。この実施形態では、階調特性変換手段50
により、本スキャンデータに対してネガフイルムの非線
形特性を線形に修正するための変換を行う。この変換を
行った後に、顔エリア抽出処理手段12により顔エリア
の抽出を行う。変換テーブル作成手段51では、3色濃
度バランスを修正するとともに、顔エリアサイズに応じ
た階調補正を行うためのデータ変換テーブルを作成す
る。画像信号処理手段52では、このデータ変換テーブ
ルを用いて本スキャンデータを変換する。なお、顔エリ
アサイズに応じた階調補正の代わりに、画像信号処理手
段52で顔サイズに応じたエッジ強調を行ってもよい。
また、変換テーブル作成手段51では、顔エリアサイズ
に応じた階調補正用データ変換テーブルの他に顔エリア
の濃度補正用データ変換テーブルを作成してもよく、こ
れにより顔エリアの仕上りをより一層良くすることがで
きる。
Next, with reference to FIG. 13, another embodiment relating to conversion by gradation characteristic data will be described. The same components as those in the embodiment shown in FIG. 4 are designated by the same reference numerals. In this embodiment, the gradation characteristic conversion means 50
Thus, the main scan data is converted to linearly correct the non-linear characteristic of the negative film. After this conversion, the face area extraction processing means 12 extracts the face area. The conversion table creating means 51 creates a data conversion table for correcting the three-color density balance and performing gradation correction according to the face area size. The image signal processing means 52 uses this data conversion table to convert the main scan data. Instead of the gradation correction according to the face area size, the image signal processing unit 52 may perform edge enhancement according to the face size.
In addition, the conversion table creating means 51 may create a density correction data conversion table for the face area in addition to the gradation correction data conversion table according to the face area size, thereby further improving the finish of the face area. You can get better.

【0040】なお、本発明において濃度は、光学濃度に
限定されることなく、色彩学上の明度に相当する変換
値、原画像の測光出力値、網点面積率などを含む。ま
た、濃度のアンチ対数値を用いてもよい。また、エッジ
を強調する代わりに、逆に画像やエッジを平滑化しても
よい。
In the present invention, the density is not limited to the optical density and includes a conversion value corresponding to the lightness in chromatics, a photometric output value of the original image, a halftone dot area ratio and the like. Alternatively, the antilogarithmic value of the concentration may be used. Further, instead of emphasizing the edges, the image or the edges may be smoothed.

【0041】また、上記実施形態では、顔エリア抽出処
理手段で肌色濃度を基準にして顔エリアを自動的に抽出
するようにしたが、この他に顔の抽出は、仕上りをシミ
ュレートした画像をCRT等のディスプレィに表示し、
この表示された画像を観察してライトペンやマウス等を
用いて顔エリアを指定することで、行ってもよい。ま
た、上記実施形態では、デジタルカメラの画像データや
ネガフイルムからの画像データを用いたが、この他に、
ポジフイルムや反射原稿に対して本発明を適用してもよ
い。また、画像表示装置に本発明を適用してもよい。
Further, in the above embodiment, the face area extraction processing means automatically extracts the face area based on the skin color density. However, in addition to this, the face extraction is performed by using an image simulating the finish. Display it on a display such as a CRT,
This may be done by observing the displayed image and designating the face area using a light pen, a mouse or the like. Further, in the above embodiment, the image data of the digital camera and the image data from the negative film are used.
The present invention may be applied to a positive film or a reflective original. Further, the present invention may be applied to an image display device.

【0042】なお、画像に対応して、被写体と画像の倍
率や、被写体距離等の情報が記録されている場合には、
特開平1−111086号公報に詳しく説明されている
ように、顔エリアを決定するためにこれらの情報を利用
することが有効である。
When information such as the magnification between the subject and the image and the subject distance is recorded corresponding to the image,
As described in detail in Japanese Unexamined Patent Publication No. 1-111086, it is effective to use these pieces of information in order to determine the face area.

【0043】[0043]

【発明の効果】本発明によれば、顔エリアの大きさによ
ってエッジ強調や階調補正等の画像処理を行うから、撮
影距離情報などを持たない画像に対しても、シーンにあ
った適切な画像処理を施すことができる。しかも、撮影
距離情報に応じてエッジ強調等の画像処理を行う従来の
ものに比べて、シーンにあった適正な画像処理を確実に
行うことができる。すなわち、従来のものではメモリ容
量の制限やカメラのコストから撮影距離情報は粗い場合
が多く、シーンにあった適切な画像処理が困難であった
が、本発明では顔エリアの大きさに応じて行うので精度
のよい撮影距離情報が得られるようになる。
According to the present invention, since image processing such as edge enhancement and gradation correction is performed according to the size of the face area, an appropriate image suitable for the scene is obtained even for an image having no shooting distance information. Image processing can be performed. Moreover, it is possible to surely perform appropriate image processing suitable for the scene, as compared with the conventional one that performs image processing such as edge enhancement according to the shooting distance information. That is, in the conventional art, the shooting distance information is often coarse due to the limitation of the memory capacity and the cost of the camera, and it is difficult to perform appropriate image processing suitable for the scene. Since this is performed, accurate shooting distance information can be obtained.

【0044】顔エリアの大きさに基づきエッジ強調や階
調補正等の画像処理を行うから、それぞれの画像にあっ
た画質改善法を採用することができる。例えば、顔のア
ップのような近距離で撮影した画像の画質を損なうこと
なく、遠景などの被写体が小さくなった画像に対して輪
郭を強調することができる。また、人物の写っていない
風景中のミクロな濃淡を強調したり、集合写真中の人物
を強調したりすることができる。更には、近距離であっ
ても、人物の写っていない画像に対してエッジ強調や階
調補正を行うことにより、物体の形状をより鮮明にする
ことができる。
Since image processing such as edge enhancement and gradation correction is performed based on the size of the face area, an image quality improving method suitable for each image can be adopted. For example, the contour can be emphasized for an image in which the subject is small such as a distant view without deteriorating the image quality of an image taken at a short distance such as a close-up of the face. In addition, it is possible to emphasize microscopic light and shade in a landscape where no person is captured, or to emphasize a person in a group photo. Furthermore, even at a short distance, the shape of an object can be made clearer by performing edge enhancement and gradation correction on an image in which no person is captured.

【0045】また、顔エリアの大きさに基づきエッジ強
調や階調補正の度合いを変更したから、画質改善の多様
化が図れる。これにより、例えば顔のアップに対して僅
かにアンシャープにすることによって肌の質感を向上さ
せることができる。同時に背景をより一層アンシャープ
にすることによって、背景をデフォーカスしたような効
果を得ることができる。更に、顔エリアとこれを除いた
背景エリアとに対して別々の画像処理を行うことによ
り、画質改善の多様化をより一層図ることができる。
Further, since the degree of edge enhancement or gradation correction is changed based on the size of the face area, the image quality can be diversified. As a result, the texture of the skin can be improved by slightly unsharpening the face up. At the same time, by further unsharpening the background, it is possible to obtain the effect of defocusing the background. Further, by performing different image processing on the face area and the background area excluding the face area, it is possible to further diversify the image quality improvement.

【0046】顔エリアのサイズに対し基準エリアサイズ
を決めておき、この基準エリアサイズの場合に、顔エリ
アと背景エリアとに対するエッジ強調度合いを同じに設
定し、基準エリアサイズよりも顔エリアが小さい場合に
は背景エリアのエッジ強調度合いを顔エリアのエッジ強
調度合いよりも大きくし、基準エリアサイズよりも顔エ
リアが大きい場合には背景エリアのエッジ強調度合いを
顔エリアのエッジ強調度合いよりも小さくすることによ
り、シーンに合った適正なエッジ強調処理を自動的に行
うことができる。同様にして、エッジ強調度合いの変更
に代えて、階調硬軟度合いを変更することで、同じよう
な効果が得られる。
A reference area size is determined with respect to the size of the face area. In the case of this reference area size, the degree of edge enhancement for the face area and the background area is set to be the same, and the face area is smaller than the reference area size. In this case, the edge emphasis degree of the background area is made larger than the edge emphasis degree of the face area, and when the face area is larger than the reference area size, the edge emphasis degree of the background area is made smaller than the edge emphasis degree of the face area. As a result, it is possible to automatically perform an appropriate edge enhancement process suitable for the scene. Similarly, the same effect can be obtained by changing the gradation hardness level instead of changing the edge enhancement level.

【0047】更に、顔画像エリアのサイズに対し最小エ
リアサイズ及び最大エリアサイズを決めておき、顔画像
エリアサイズが最小エリアサイズ及び基準エリアサイズ
の間にある場合には、顔画像エリアサイズが最小エリア
サイズ又は基準エリアサイズに近づくに従い両エリアに
対するエッジ強調度合いの差が次第に小さくなるように
設定し、顔画像エリアサイズが基準エリアサイズ及び最
大エリアサイズの間にある場合には、顔画像エリアサイ
ズが最大エリアサイズに近づくに従い両エリアに対する
エッジ強調度合いの差が次第に大きくなるように設定す
ることにより、エッジ強調度合いや階調硬軟度合いの変
更をより一層きめ細かく行うことができる。
Further, the minimum area size and the maximum area size are determined for the size of the face image area. If the face image area size is between the minimum area size and the reference area size, the face image area size is the minimum. The difference between the edge enhancement degrees for both areas is set to gradually decrease as the area size or the reference area size is approached. If the face image area size is between the reference area size and the maximum area size, the face image area size is set. By setting so that the difference between the edge enhancement degrees for both areas gradually increases as is approaching the maximum area size, the edge enhancement degree and the gradation hard / soft degree can be changed more finely.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施したデジタルプリンタの要部を示
す機能ブロック図である。
FIG. 1 is a functional block diagram showing a main part of a digital printer embodying the present invention.

【図2】エッジ強調手段を示す機能ブロック図である。FIG. 2 is a functional block diagram showing edge enhancement means.

【図3】顔エリアサイズとエッジ強調係数との関係を示
す線図である。
FIG. 3 is a diagram showing a relationship between a face area size and an edge enhancement coefficient.

【図4】他の実施形態の要部を示す機能ブロック図であ
る。
FIG. 4 is a functional block diagram showing a main part of another embodiment.

【図5】G濃度に対するR濃度の関係を示す階調バラン
ス特性データの一例を示す線図である。
FIG. 5 is a diagram showing an example of gradation balance characteristic data showing a relationship between R density and G density.

【図6】図5のデータをスムージング処理した後の階調
バランス特性データの一例を示す線図である。
FIG. 6 is a diagram showing an example of gradation balance characteristic data after smoothing the data of FIG.

【図7】階調バランス特性から高濃度及び低濃度側基準
バランス値を求めることを説明する線図である。
FIG. 7 is a diagram illustrating how to obtain a high-density and low-density side reference balance value from a gradation balance characteristic.

【図8】階調特性データの一例を示す線図である。FIG. 8 is a diagram showing an example of gradation characteristic data.

【図9】階調変換テーブルの一例を示す線図である。FIG. 9 is a diagram showing an example of a gradation conversion table.

【図10】データ変換テーブルの修正の一例を示す線図
である。
FIG. 10 is a diagram showing an example of correction of a data conversion table.

【図11】データ変換テーブルの修正の一例を示す線図
である。
FIG. 11 is a diagram showing an example of correction of a data conversion table.

【図12】顔エリアと背景エリアとに対し別々のエッジ
強調係数を用いる実施形態における顔エリアサイズとエ
ッジ強調係数との関係を示す線図である。
FIG. 12 is a diagram showing a relationship between a face area size and an edge enhancement coefficient in an embodiment in which different edge enhancement coefficients are used for a face area and a background area.

【図13】他の実施形態における要部を示す機能ブロッ
ク図である。
FIG. 13 is a functional block diagram showing a main part of another embodiment.

【符号の説明】[Explanation of symbols]

10 画像信号入力手段 11,21 変換手段 12 顔エリア抽出処理手段 13 顔サイズ推定手段 14 エッジ強調手段 20 階調補正手段 22 色調補正手段 23 画像記録制御量演算手段 24 画像記録手段 35 画像信号処理手段 10 image signal input means 11, 21 conversion means 12 face area extraction processing means 13 face size estimation means 14 edge enhancement means 20 gradation correction means 22 color tone correction means 23 image recording control amount calculation means 24 image recording means 35 image signal processing means

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアの大きさ、又は顔画像エリアの有無によって画
像処理方法を変更することを特徴とするデジタルプリン
タの画像データ変換方法。
1. An image data conversion method of a digital printer for recording an image on a recording material based on image data, wherein a face image area of a person is extracted from the image data, and the size of the face image area or the face image area An image data conversion method for a digital printer, characterized in that the image processing method is changed depending on the presence or absence.
【請求項2】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアの大きさ、又は顔画像エリアの有無によって、
エッジ強調の度合いを変更することを特徴とするデジタ
ルプリンタの画像データ変換方法。
2. An image data conversion method of a digital printer for recording an image on a recording material based on image data, wherein a face image area of a person is extracted from the image data, and the size of the face image area or the face image area With or without,
An image data conversion method for a digital printer, characterized in that the degree of edge enhancement is changed.
【請求項3】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアが小さくなるにしたがいエッジ強調の度合いを
次第に大きくすることを特徴とするデジタルプリンタの
画像データ変換方法。
3. A method of converting image data of a digital printer for recording an image on a recording material based on image data, wherein a face image area of a person is extracted from the image data, and the degree of edge enhancement as the face image area becomes smaller. A method for converting image data of a digital printer, which is characterized by gradually increasing.
【請求項4】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアの大きさ、又は顔画像エリアの有無によって、
階調を変更することを特徴とするデジタルプリンタの画
像データ変換方法。
4. An image data conversion method for a digital printer, which records an image on a recording material based on image data, extracts a face image area of a person from the image data, and determines the size of the face image area or the face image area. With or without,
An image data conversion method for a digital printer, characterized by changing gradation.
【請求項5】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアが小さくなるにしたがい階調を次第に硬くする
ことを特徴とするデジタルプリンタの画像データ変換方
法。
5. An image data conversion method of a digital printer for recording an image on a recording material based on image data, wherein a face image area of a person is extracted from the image data, and gradation is gradually increased as the face image area becomes smaller. An image data conversion method for a digital printer, which is characterized by making it hard.
【請求項6】 画像データに基づき記録材料に画像を記
録するデジタルプリンタの画像データ変換方法におい
て、 画像データから人物の顔画像エリアを抽出し、この顔画
像エリアとこれを除いた背景画像エリアとに対し、異な
る画像処理方法を適用することを特徴とするデジタルプ
リンタの画像データ変換方法。
6. An image data conversion method of a digital printer for recording an image on a recording material based on image data, wherein a face image area of a person is extracted from the image data, and the face image area and a background image area excluding the face image area are extracted. In contrast, a different image processing method is applied to the image data conversion method of the digital printer.
【請求項7】 請求項6記載のデジタルプリンタの画像
データ変換方法において、 前記顔画像エリアが小さくなるにしたがいエッジ強調の
度合いを次第に大きくし、又は顔画像エリアが小さくな
るにしたがい階調を次第に硬くすることを特徴とするデ
ジタルプリンタの画像データ変換方法。
7. The image data conversion method for a digital printer according to claim 6, wherein the degree of edge enhancement is gradually increased as the face image area becomes smaller, or the gradation is gradually made smaller as the face image area becomes smaller. An image data conversion method for a digital printer, which is characterized by making it hard.
【請求項8】 請求項6記載のデジタルプリンタの画像
データ変換方法において、 前記顔画像エリアのサイズに対し基準エリアサイズを決
めておき、この基準エリアサイズの場合に、顔画像エリ
アと背景エリアとに対するエッジ強調度合いを同じに設
定し、基準エリアサイズよりも顔エリアが小さい場合に
は背景エリアのエッジ強調度合いを顔画像エリアのエッ
ジ強調度合いよりも大きくし、基準エリアサイズよりも
顔エリアが大きい場合には背景エリアのエッジ強調度合
いを顔画像エリアのエッジ強調度合いよりも小さくした
ことを特徴とするデジタルプリンタの画像データ変換方
法。
8. The digital printer image data conversion method according to claim 6, wherein a reference area size is determined in advance for the size of the face image area, and in the case of this reference area size, a face image area and a background area are set. When the face area is smaller than the reference area size, the edge emphasis degree for the background area is set larger than the edge emphasis degree for the face image area, and the face area is larger than the reference area size. In this case, the image data conversion method for a digital printer is characterized in that the edge emphasis degree of the background area is made smaller than the edge emphasis degree of the face image area.
【請求項9】 請求項6記載のデジタルプリンタの画像
データ変換方法において、 前記顔画像エリアが小さくなるにしたがい顔画像エリア
及び背景エリアの階調を硬くし、顔画像エリアのサイズ
に対し基準エリアサイズを決めておき、この基準エリア
サイズの場合に、顔画像エリアと背景エリアとに対する
階調を同じに設定し、基準エリアサイズよりも顔エリア
が小さい場合には背景エリアの階調を顔画像エリアの階
調よりも硬くし、基準エリアサイズよりも顔エリアが大
きい場合には背景エリアの階調を顔画像エリアの階調よ
りも軟らかくしたことを特徴とするデジタルプリンタの
画像データ変換方法。
9. The image data conversion method for a digital printer according to claim 6, wherein the gradation of the face image area and the background area is made harder as the face image area becomes smaller, and the reference area is larger than the size of the face image area. Determine the size, set the gradation for the face image area and background area to be the same for this reference area size, and if the face area is smaller than the reference area size, set the gradation for the background area to the face image area. An image data conversion method for a digital printer, which is harder than the gradation of the area and is softer than the gradation of the face image area when the face area is larger than the reference area size.
【請求項10】 請求項8又は9記載のデジタルプリン
タの画像データ変換方法において、 前記顔画像エリアのサイズに対し最小エリアサイズ及び
最大エリアサイズを決めておき、顔画像エリアサイズが
最小エリアサイズ及び基準エリアサイズの間にある場合
には、顔画像エリアサイズが最小エリアサイズ又は基準
エリアサイズに近づくに従い両エリアに対するエッジ強
調度合いの差又は階調の硬軟度合いの差が次第に小さく
なるように設定し、顔画像エリアサイズが基準エリアサ
イズ及び最大エリアサイズの間にある場合には、顔画像
エリアサイズが最大エリアサイズに近づくに従い両エリ
アに対するエッジ強調度合いの差又は階調の硬軟度合い
の差が次第に大きくなるように設定したことを特徴とす
るデジタルプリンタの画像データ変換方法。
10. The image data conversion method for a digital printer according to claim 8, wherein a minimum area size and a maximum area size are determined for the size of the face image area, and the face image area size is the minimum area size and the minimum area size. If it is between the reference area sizes, set so that the difference in the degree of edge enhancement or the difference in the degree of hard and soft gradation is gradually reduced for both areas as the face image area size approaches the minimum area size or the reference area size. , If the face image area size is between the reference area size and the maximum area size, as the face image area size approaches the maximum area size, the difference in edge emphasis degree or the difference in the degree of hard and soft gradation is gradually increased for both areas. Image data conversion of a digital printer characterized by being set to be large Law.
【請求項11】 請求項2,3,又は8いずれか1つ記
載のデジタルプリンタの画像データ変換方法において、 前記画像データを輝度信号と色信号とに分離して、輝度
信号に対し前記エッジ強調を行うことを特徴とするデジ
タルプリンタの画像データ変換方法。
11. The image data conversion method for a digital printer according to claim 2, 3, or 8, wherein the image data is separated into a luminance signal and a color signal, and the edge enhancement is performed on the luminance signal. An image data conversion method for a digital printer, characterized by performing the following.
JP03976796A 1996-02-27 1996-02-27 Image data conversion method for digital printer Expired - Fee Related JP3733165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03976796A JP3733165B2 (en) 1996-02-27 1996-02-27 Image data conversion method for digital printer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03976796A JP3733165B2 (en) 1996-02-27 1996-02-27 Image data conversion method for digital printer

Publications (2)

Publication Number Publication Date
JPH09233423A true JPH09233423A (en) 1997-09-05
JP3733165B2 JP3733165B2 (en) 2006-01-11

Family

ID=12562095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03976796A Expired - Fee Related JP3733165B2 (en) 1996-02-27 1996-02-27 Image data conversion method for digital printer

Country Status (1)

Country Link
JP (1) JP3733165B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP2005038119A (en) * 2003-07-18 2005-02-10 Canon Inc Image processing apparatus and method
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and apparatus
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and apparatus
JP2006318260A (en) * 2005-05-13 2006-11-24 Fuji Photo Film Co Ltd Image processor and method therefor
US7181091B2 (en) 2001-03-16 2007-02-20 Fuji Photo Film Co., Ltd. Method, apparatus, and recording medium for correcting appreciation data
JP2007048112A (en) * 2005-08-11 2007-02-22 Noritsu Koki Co Ltd Image processing apparatus and image processing program
US7190844B2 (en) 2002-02-22 2007-03-13 Konica Corporation Image processing method, storage medium, image processor and image recorder
JP2007249802A (en) * 2006-03-17 2007-09-27 Noritsu Koki Co Ltd Image processor and image processing method
JP2008219289A (en) * 2007-03-01 2008-09-18 Sanyo Electric Co Ltd Video correction device, video display device, imaging apparatus and video correction program
JP2009020834A (en) * 2007-07-13 2009-01-29 Fujifilm Corp Image processing apparatus, method and program, and imaging apparatus
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP2010049312A (en) * 2008-08-19 2010-03-04 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2010283523A (en) * 2009-06-03 2010-12-16 Nec Casio Mobile Communications Ltd Image processor and program
US20110228146A1 (en) * 2010-03-16 2011-09-22 Panasonic Corporation Imaging apparatus
US8189951B2 (en) 2008-05-21 2012-05-29 Panasonic Corporation Video signal display device, video signal display method, storage medium, and integrated circuit
JP2013152734A (en) * 2008-03-05 2013-08-08 Semiconductor Energy Lab Co Ltd Display device
JP2013182339A (en) * 2012-02-29 2013-09-12 Toshiba Corp Image processing apparatus, image processing method and program
WO2017034012A1 (en) * 2015-08-26 2017-03-02 シャープ株式会社 Image processing device and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011002520A (en) * 2009-06-16 2011-01-06 Sony Corp Self-luminous display device, power consumption reduction method, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
US7181091B2 (en) 2001-03-16 2007-02-20 Fuji Photo Film Co., Ltd. Method, apparatus, and recording medium for correcting appreciation data
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
US7190844B2 (en) 2002-02-22 2007-03-13 Konica Corporation Image processing method, storage medium, image processor and image recorder
JP2005038119A (en) * 2003-07-18 2005-02-10 Canon Inc Image processing apparatus and method
US7593585B2 (en) 2003-07-31 2009-09-22 Canon Kabushiki Kaisha Image processing apparatus and method therefor
US7840087B2 (en) 2003-07-31 2010-11-23 Canon Kabushiki Kaisha Image processing apparatus and method therefor
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and apparatus
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and apparatus
JP2006318260A (en) * 2005-05-13 2006-11-24 Fuji Photo Film Co Ltd Image processor and method therefor
JP2007048112A (en) * 2005-08-11 2007-02-22 Noritsu Koki Co Ltd Image processing apparatus and image processing program
JP2007249802A (en) * 2006-03-17 2007-09-27 Noritsu Koki Co Ltd Image processor and image processing method
JP2008219289A (en) * 2007-03-01 2008-09-18 Sanyo Electric Co Ltd Video correction device, video display device, imaging apparatus and video correction program
JP2009020834A (en) * 2007-07-13 2009-01-29 Fujifilm Corp Image processing apparatus, method and program, and imaging apparatus
US8244059B2 (en) 2007-07-13 2012-08-14 Fujifilm Corporation Image processing method, apparatus, recording medium, and image pickup apparatus
US8687918B2 (en) 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
JP2013152734A (en) * 2008-03-05 2013-08-08 Semiconductor Energy Lab Co Ltd Display device
US8189951B2 (en) 2008-05-21 2012-05-29 Panasonic Corporation Video signal display device, video signal display method, storage medium, and integrated circuit
JP2010049312A (en) * 2008-08-19 2010-03-04 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2010283523A (en) * 2009-06-03 2010-12-16 Nec Casio Mobile Communications Ltd Image processor and program
US20110228146A1 (en) * 2010-03-16 2011-09-22 Panasonic Corporation Imaging apparatus
US8514305B2 (en) * 2010-03-16 2013-08-20 Panasonic Corporation Imaging apparatus
JP2013182339A (en) * 2012-02-29 2013-09-12 Toshiba Corp Image processing apparatus, image processing method and program
US8953883B2 (en) 2012-02-29 2015-02-10 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and computer-readable medium
WO2017034012A1 (en) * 2015-08-26 2017-03-02 シャープ株式会社 Image processing device and program
JPWO2017034012A1 (en) * 2015-08-26 2018-05-10 シャープ株式会社 Image processing apparatus and program

Also Published As

Publication number Publication date
JP3733165B2 (en) 2006-01-11

Similar Documents

Publication Publication Date Title
JP3733165B2 (en) Image data conversion method for digital printer
JP3668014B2 (en) Image processing method and apparatus
US7580566B2 (en) Image processing device, image processing method, storage medium, and program
JP4978378B2 (en) Image processing device
JP3556859B2 (en) Image correction method, image correction device, and recording medium
JP3584389B2 (en) Image processing method and image processing apparatus
JP2002314817A (en) Method, device, program, and recording medium for locally changing sharpness of photographed image by using mask, and image reproducing device
JP2002262094A (en) Image processing method and image processor
JP2002150284A (en) Digital image processing system and method for emphasizing main subject of image
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
JP2003203231A (en) Image processing method for keeping black level
JP2002300402A (en) Image processor, processing method and recording medium
JP2002083294A (en) Image processor, image processing method and recording medium stored with image processing program
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP4367821B2 (en) Image processing apparatus, image processing method, and recording medium
JPH11266358A (en) Image processing method
JP3408770B2 (en) Image processing device
EP1370061A1 (en) Method, apparatus, and program for image processing
JP2002368982A (en) Image processing apparatus, image processing method, and recording medium
JP3950226B2 (en) Image processing method and apparatus
JP3836237B2 (en) Image correction method and apparatus
JPH11284860A (en) Image processing method, image processing unit and recording medium recording image processing program and read by computer
JP4063971B2 (en) Image processing method and apparatus
JP4426009B2 (en) Image processing method and apparatus, and recording medium
JP2001346043A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131021

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees