[go: up one dir, main page]

JP2005159850A - Composition of image and character string - Google Patents

Composition of image and character string Download PDF

Info

Publication number
JP2005159850A
JP2005159850A JP2003397400A JP2003397400A JP2005159850A JP 2005159850 A JP2005159850 A JP 2005159850A JP 2003397400 A JP2003397400 A JP 2003397400A JP 2003397400 A JP2003397400 A JP 2003397400A JP 2005159850 A JP2005159850 A JP 2005159850A
Authority
JP
Japan
Prior art keywords
character
character frame
area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003397400A
Other languages
Japanese (ja)
Inventor
Takashi Hiuga
崇 日向
Toshinori Nagahashi
敏則 長橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003397400A priority Critical patent/JP2005159850A/en
Publication of JP2005159850A publication Critical patent/JP2005159850A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique capable of overlaying a character string on an appropriate position of an object image. <P>SOLUTION: First, a noticing area PA is detected by analyzing an object image MF. The position of a character frame area CA is determined to avoid the noticing area PA. By arranging the character string in the character frame area CA, a composite image with the character string overlaid on the object image MF is created. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、対象画像上に文字列を配置する技術に関する。   The present invention relates to a technique for arranging a character string on a target image.

デジタルカメラなどの画像生成装置で生成された画像を印刷したり表示したりする際に、文字列を重ねて配置したい場合がある。画像に文字列を配置する技術としては、例えば特許文献1に記載されたものが知られている。   When printing or displaying an image generated by an image generation device such as a digital camera, there are cases where it is desired to arrange character strings in an overlapping manner. As a technique for arranging a character string in an image, for example, one described in Patent Document 1 is known.

特開2003−67175号公報JP 2003-67175 A

この従来技術では、複数の文字サイズを予め設定しておき、画面表示の際に、この中から適切なサイズを選択することによって、印刷時と画面表示時における文字列と画像との配置関係の不一致を緩和している。   In this prior art, by setting a plurality of character sizes in advance and selecting an appropriate size from among these when displaying a screen, the arrangement relationship between character strings and images during printing and screen display is determined. Mitigating discrepancies.

ところで、一般に、文字列を画像(特に写真画像)に重ねる場合には、画像内の重要な部分に文字列が重ならないように配置したいという要望がある。このため、従来から、このような配置を実現できる技術が望まれていた。   By the way, generally, when a character string is superimposed on an image (particularly a photographic image), there is a demand to arrange the character string so that it does not overlap an important part in the image. For this reason, a technique that can realize such an arrangement has been desired.

本発明は、上述した従来の課題を解決するためになされたものであり、対象画像の適切な位置に文字列を重ねることのできる技術を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to provide a technique that can superimpose a character string at an appropriate position of a target image.

上記目的の少なくとも一部を達成するために、本発明の装置は、対象画像に文字列を重ねて配置するための画像処理装置であって、
対象画像を解析することによって注目領域を検出する注目領域検出部と、
前記注目領域を避けるように文字枠領域の位置を決定する文字枠領域決定部と、
前記文字枠領域内に文字列を配置することによって、前記対象画像の上に前記文字列が重ねられた合成画像を生成する画像合成部と、
を備える。
In order to achieve at least a part of the above object, an apparatus of the present invention is an image processing apparatus for arranging a character string on a target image,
An attention area detection unit for detecting an attention area by analyzing a target image;
A character frame region determination unit that determines the position of the character frame region so as to avoid the attention region;
An image compositing unit that generates a composite image in which the character string is superimposed on the target image by arranging a character string in the character frame region;
Is provided.

この装置では、対象画像を解析して注目領域を検出し、この注目領域を避けるように文字枠領域の位置を決定するので、対象画像の適切な位置に文字列を重ねることができる。   In this apparatus, the target image is detected by analyzing the target image, and the position of the character frame region is determined so as to avoid the target region, so that the character string can be superimposed at an appropriate position of the target image.

前記文字枠領域決定部は、前記文字枠領域と前記注目領域との重なりが生じないように前記文字枠領域の位置を決定するようにしてもよい。   The character frame region determination unit may determine the position of the character frame region so that the character frame region and the attention region do not overlap.

この構成によれば、文字列と注目領域とが全く重ならないので、対象画像の重要な部分を文字列で隠してしまうことを防止できる。   According to this configuration, since the character string and the attention area do not overlap at all, it is possible to prevent an important part of the target image from being hidden by the character string.

前記文字枠領域決定部は、
前記文字枠領域に相当する位置における前記対象画像の色の変化が小さいほど良好な値を示す色変化指標を算出し、
前記文字枠領域と前記注目領域との重なりが生じず、かつ、前記色変化指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定するようにしてもよい。
The character frame region determination unit
A color change index indicating a better value as the color change of the target image at a position corresponding to the character frame region is smaller;
The position of the character frame region may be determined so that the character frame region and the region of interest do not overlap and the color change index takes a value within a predetermined range that is close to the best value. .

画像の色変化が小さいところは画像としての重要性が低い場合が多い。従って、この構成によれば、文字列を、注目領域以外の位置であって、かつ、画像の重要性が低いところに配置することができる。   Where the color change of the image is small, the importance as an image is often low. Therefore, according to this configuration, the character string can be arranged at a position other than the region of interest and at a place where the importance of the image is low.

前記文字枠領域決定部は、前記文字枠領域と前記注目領域との重なりが生じないように前記文字枠領域と各文字の大きさを決定するようにしてもよい。   The character frame region determination unit may determine the character frame region and the size of each character so that the character frame region and the attention region do not overlap.

この構成によれば、文字列と注目領域とが全く重ならないので、対象画像の重要な部分を文字列で隠してしまうことを防止できる。   According to this configuration, since the character string and the attention area do not overlap at all, it is possible to prevent an important part of the target image from being hidden by the character string.

前記文字枠領域決定部は、
前記文字枠領域と前記注目領域とが部分的に重なる場合には、前記文字枠領域と前記注目領域の重なり量が少ないほど良好な値を示す重なり評価指標を算出し、
前記重なり評価指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定するようにしてもよい。
The character frame region determination unit
When the character frame area and the attention area partially overlap, calculate an overlap evaluation index indicating a better value as the amount of overlap between the character frame area and the attention area decreases,
The position of the character frame area may be determined so that the overlap evaluation index takes a value in a predetermined range close to the best value.

この構成によれば、文字列と注目領域との重なりが小さい位置に文字列を配置することができる。   According to this configuration, the character string can be arranged at a position where the overlap between the character string and the attention area is small.

前記文字枠領域決定部は、
前記文字枠領域に相当する位置における前記対象画像の色の変化が小さいほど良好な値を示す色変化指標を算出し、
前記重なり評価指標が最も良好な値に近い所定範囲の値を取り、かつ、前記色変化評価指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定するようにしてもよい。
The character frame region determination unit
A color change index indicating a better value as the color change of the target image at a position corresponding to the character frame region is smaller;
The position of the character frame region is determined so that the overlap evaluation index takes a value in a predetermined range close to the best value and the color change evaluation index takes a value in a predetermined range close to the best value. It may be.

この構成によれば、文字列と注目領域との重なりが比較的小さく、また、比較的画像としての重要性の低い位置に文字列を配置することができる。   According to this configuration, the character string can be arranged at a position where the overlap between the character string and the attention area is relatively small and the importance as an image is relatively low.

前記注目領域検出部は、人間の顔を含む領域を第1種の注目領域として検出することが可能であるものとしてもよい。   The attention area detection unit may be capable of detecting an area including a human face as a first type of attention area.

この構成によれば、通常最も重要とされる人間の顔を避けるように文字列を配置することができる。   According to this configuration, character strings can be arranged so as to avoid the human face, which is usually regarded as most important.

前記注目領域検出部は、さらに、前記対象画像の画像部分の重要度が高いほど良好な値を示す重要度指標を算出し、前記重要度指標の良好な領域を第2種の注目領域として検出することが可能であるものとしてもよい。   The attention area detection unit further calculates an importance index indicating a better value as the importance of the image portion of the target image is higher, and detects an area having a better importance index as a second type of attention area. It is good also as what can be done.

この構成によれば、顔以外の他の重要な画像部分を避けるように文字列を配置することができる。   According to this configuration, the character string can be arranged so as to avoid an important image portion other than the face.

前記文字枠領域決定部は、前記第1種と第2種の注目領域が存在する場合に、
(i)前記文字枠領域と前記第1種の注目領域とに重なりが生じず、かつ、
(ii)前記文字枠領域と前記第2種の注目領域の重なりが少ないほど良好な値を示す重なり評価指標を算出し、前記重なり評価指標が最も良好な値に近い所定範囲の値を取るように、
前記文字枠領域の位置を決定するものとしてもよい。
The character frame area determination unit, when the first type and the second type of attention area exist,
(I) There is no overlap between the character frame area and the first type of attention area, and
(Ii) An overlap evaluation index indicating a better value as the overlap between the character frame area and the second type of attention area is smaller is calculated, and the overlap evaluation index takes a value in a predetermined range close to the most favorable value. In addition,
The position of the character frame area may be determined.

この構成によれば、顔を含む第1種の注目領域には文字列が重ならず、また、第2種の注目領域との重なりが小さくなるように文字列を配置することができる。   According to this configuration, the character string can be arranged so that the character string does not overlap with the first type of attention area including the face and the overlap with the second type of attention area becomes small.

前記対象画像は、印刷領域内の一部に配置されており、
前記文字枠領域決定部は、前記印刷領域内で前記文字枠を配置するものとしてもよい。
The target image is arranged in a part of the print area,
The character frame area determination unit may arrange the character frame in the print area.

この構成によれば、対象画像の領域内に限らず、印刷領域内に文字列を配置できるので、文字列をより適切な位置に配置することが可能である。   According to this configuration, the character string can be arranged not only in the region of the target image but also in the print region, so that the character string can be arranged in a more appropriate position.

上記画像処理装置は、さらに、
前記文字枠領域内における前記対象画像の色に応じて前記文字列の色を決定する文字色決定部を備えるものとしてもよい。
The image processing apparatus further includes:
A character color determining unit that determines the color of the character string in accordance with the color of the target image in the character frame region may be provided.

この構成によれば、文字列を明瞭に表示することが可能である。   According to this configuration, it is possible to display a character string clearly.

前記文字色決定部は、前記文字列の色相が、前記文字枠領域内における前記対象画像の平均色の色相と異なるように前記文字列の色を決定するようにしてもよい。   The character color determination unit may determine the color of the character string so that a hue of the character string is different from an average color hue of the target image in the character frame region.

あるいは、前記文字色決定部は、各文字の色相と、各文字に接する位置における前記対象画像の色相とが異なるように各文字の色を決定する、画像処理装置。   Or the said character color determination part is an image processing apparatus which determines the color of each character so that the hue of each character and the hue of the said target image in the position which touches each character may differ.

なお、本発明は、種々の態様で実現することが可能であり、例えば、対象画像に文字列を重ねて配置するための画像処理方法および装置、画像処理システム、対象画像と文字列とが合成された画像を出力するための画像出力方法および装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、等の態様で実現することができる。   The present invention can be realized in various modes. For example, an image processing method and apparatus for arranging character strings on a target image, an image processing system, and a target image and a character string are combined. An image output method and apparatus for outputting a recorded image, a computer program for realizing the functions of the method or apparatus, a recording medium on which the computer program is recorded, and the like can be realized.

次に、本発明を実施するための最良の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
B.第2実施例:
C.変形例:
Next, the best mode for carrying out the present invention will be described in the following order based on examples.
A. First embodiment:
B. Second embodiment:
C. Variation:

A.第1実施例:
図1は、本発明の第1実施例としての画像処理システムを示す説明図である。この画像処理システムは、デジタルカメラ100とコンピュータ200とカラープリンタ300とを備えている。コンピュータ200は、対象画像に文字列を重ねる処理を実行する画像処理部210を備えている。この画像処理部210は、デジタルカメラ100に設けられていてもよく、また、カラープリンタ300に設けられていてもよい。
A. First embodiment:
FIG. 1 is an explanatory diagram showing an image processing system as a first embodiment of the present invention. This image processing system includes a digital camera 100, a computer 200, and a color printer 300. The computer 200 includes an image processing unit 210 that executes a process of superimposing a character string on a target image. The image processing unit 210 may be provided in the digital camera 100 or may be provided in the color printer 300.

画像処理部210は、文字入力受信部220と、画像選択部230と、注目領域検出部232と、文字枠領域決定部234と、文字色決定部236と、画像合成部238と、画像データ出力部240と、装飾画像格納部250と、装飾画像選択部252とを有している。装飾画像格納部250は、例えばコンピュータ200のハードディスク内に設けられている。画像処理部210の他の構成要素の機能は、コンピュータプログラムによって実現される。   The image processing unit 210 includes a character input reception unit 220, an image selection unit 230, a region of interest detection unit 232, a character frame region determination unit 234, a character color determination unit 236, an image composition unit 238, and image data output. A unit 240, a decoration image storage unit 250, and a decoration image selection unit 252. The decorative image storage unit 250 is provided in a hard disk of the computer 200, for example. Functions of other components of the image processing unit 210 are realized by a computer program.

図2は、第1実施例における処理手順を示すフローチャートである。図3は、実施例の処理内容を示す説明図である。ステップS1では、画像選択部230(図1)が、処理対象となる対象画像MFを読み込む。この対象画像MFは、デジタルカメラ100からコンピュータ200に供給されたものでもよく、あるいは、コンピュータ200のメモリ(ハードディスクや携帯型記憶媒体)に格納されていた複数の画像の中からユーザによって選択されたものでもよい。後者の場合には、画像選択部230が所定の選択画面を表示してユーザに対象画像MFを選択させる。   FIG. 2 is a flowchart showing a processing procedure in the first embodiment. FIG. 3 is an explanatory diagram illustrating processing contents of the embodiment. In step S1, the image selection unit 230 (FIG. 1) reads the target image MF to be processed. The target image MF may be supplied from the digital camera 100 to the computer 200 or selected by the user from a plurality of images stored in the memory (hard disk or portable storage medium) of the computer 200. It may be a thing. In the latter case, the image selection unit 230 displays a predetermined selection screen and causes the user to select the target image MF.

図3(A)は、対象画像MFの一例を示している。この対象画像MFは、2人の人物を含む写真画像である。なお、対象画像MFとしては、写真画像を選択することが好ましい。   FIG. 3A shows an example of the target image MF. This target image MF is a photographic image including two persons. Note that a photographic image is preferably selected as the target image MF.

図2のステップS2では、画像選択部230が、対象画像MFを所望の大きさにリサイズ(拡大または縮小)する。例えば、対象画像MFの全体を定型サイズ(例えばはがきサイズ)の印刷媒体の全面に印刷する場合には、対象画像MFが印刷媒体のサイズに一致するように拡大または縮小される。なお、いわゆる縁なし印刷を行う際には、縁に白抜けが発生することを防止するために、対象画像MF全体が印刷媒体のサイズよりも若干大きく設定されることが多い。本明細書において「対象画像MF全体が印刷媒体のサイズと一致する」という文言は、このような場合も含む広い意味を有している。   In step S2 of FIG. 2, the image selection unit 230 resizes (enlarges or reduces) the target image MF to a desired size. For example, when the entire target image MF is printed on the entire surface of a standard size (for example, postcard size) print medium, the target image MF is enlarged or reduced so as to match the size of the print medium. Note that when performing so-called borderless printing, the entire target image MF is often set slightly larger than the size of the print medium in order to prevent the occurrence of white spots at the border. In this specification, the phrase “the entire target image MF matches the size of the print medium” has a broad meaning including such a case.

ステップS3では、装飾画像の選択と文字列の入力が行われる。装飾画像の選択時には、装飾画像選択部252が画面に複数の装飾画像を表示し、ユーザがその中から所望の装飾画像を指定する。図3(E)は、対象画像MFの外周に装飾画像FMが付加された状態を示している。なお、装飾画像FMの付加の有無は任意である。以下では、装飾画像FMが付加されていない対象画像MFに対して文字列を合成する処理を説明する。   In step S3, a decoration image is selected and a character string is input. When selecting a decoration image, the decoration image selection unit 252 displays a plurality of decoration images on the screen, and the user designates a desired decoration image from the plurality of decoration images. FIG. 3E shows a state in which the decoration image FM is added to the outer periphery of the target image MF. Note that the presence or absence of the decoration image FM is arbitrary. Below, the process which synthesize | combines a character string with respect to the object image MF to which the decoration image FM is not added is demonstrated.

文字列の入力時には、ユーザがキーボードなどの入力手段を用いて所望の文字列CINを入力し、文字入力受信部220がこの入力文字列CINを受信する。この際、入力文字列CINのフォントの種類やサイズも入力される。なお、画像処理部210は、ユーザによる入力文字列CINの代わりに、予め設定された所定の標準文字列を用いて対象画像と文字列の合成を行うようにしてもよい。例えば、年賀状の印刷の際には「あけましておめでとう」という標準文字列を使用することが可能である。また、入力文字列CINと標準文字列の両方を用いて対象画像と文字列の合成を行うようにしてもよい。なお、本明細書において「文字列」とは、1つ以上の文字の連なりを意味している。   When inputting a character string, the user inputs a desired character string CIN using input means such as a keyboard, and the character input receiving unit 220 receives this input character string CIN. At this time, the font type and size of the input character string CIN are also input. Note that the image processing unit 210 may synthesize the target image and the character string using a predetermined standard character string set in advance instead of the user input character string CIN. For example, a standard character string “Happy New Year” can be used when printing a New Year's card. Further, the target image and the character string may be synthesized using both the input character string CIN and the standard character string. In this specification, “character string” means a series of one or more characters.

ステップS4では、注目領域検出部232が、対象画像MFの画像データを解析することによって、対象画像MFの中で注目領域を検出する。「注目領域」としては、典型的には目立ち易い領域である。第1実施例では、人間の顔を含む領域を注目領域として検出する。図3(B)は、対象画像MFの中で2つの注目領域PAが検出された状態を示している。この注目領域PAは、顔領域を包含する所定の幾何形状(例えば矩形)に設定することが好ましい。   In step S4, the attention area detection unit 232 detects the attention area in the target image MF by analyzing the image data of the target image MF. The “attention area” is typically an area that is easily noticeable. In the first embodiment, an area including a human face is detected as an attention area. FIG. 3B shows a state in which two attention areas PA are detected in the target image MF. The attention area PA is preferably set to a predetermined geometric shape (for example, a rectangle) including the face area.

なお、画像内の顔領域を検出する方法としては、例えば信学技報(Technical Report of IEICE),PRMU2001-217,pp.87-94(2002−1),「背景と顔の方向に依存しない顔の検出と顔方向の推定」に記載された方法を利用することができる。この資料では、顔領域の検出だけでなく、顔方向の推定についても記載されているが、本実施例では顔領域の検出だけを行えば良い。また、他の種々の顔領域検出方法を利用することも可能である。   As a method for detecting a face region in an image, for example, Technical Report of IEICE, PRMU2001-217, pp.87-94 (2002-1), “Independent of background and face direction. The method described in “Detection of face and estimation of face direction” can be used. Although this document describes not only the detection of the face area but also the estimation of the face direction, in the present embodiment, only the detection of the face area may be performed. Various other face area detection methods can also be used.

ステップS5では、文字枠領域決定部234が、注目領域PAを考慮して文字枠領域の位置を決定する。第1実施例では、図3(C)に示すように、まず、文字枠配置可能領域PCAが決定され、この領域PCAの中に文字枠領域CAが配置される。文字枠配置可能領域PCAは、顔領域を含む注目領域PAと重なりが生じない領域である。また、本実施例では、文字枠配置可能領域PCAは矩形形状の領域として検出される。図3(A)の対象画像MFに関しては、図3(C)に示した文字枠配置可能領域PCA以外にも種々の形状や大きさの文字枠配置可能領域が存在し得るが、図3(C)ではその中の最も大きなものだけが図示されている。文字枠領域CAは、この文字枠配置可能領域PCAの中に配置される。「文字枠領域」とは、配置すべき文字列の外枠の領域である。本実施例では、ステップS3において文字列のフォントの種類やサイズが予め指定されており、これらに応じて文字枠領域CAのサイズが決定されている。   In step S5, the character frame area determination unit 234 determines the position of the character frame area in consideration of the attention area PA. In the first embodiment, as shown in FIG. 3C, first, a character frame arrangement possible area PCA is determined, and a character frame area CA is arranged in this area PCA. The character frame allocable area PCA is an area that does not overlap with the attention area PA including the face area. In this embodiment, the character frame arrangement possible area PCA is detected as a rectangular area. Regarding the target image MF in FIG. 3A, there can exist character frame allocable areas of various shapes and sizes in addition to the character frame allocable area PCA shown in FIG. 3C. In C), only the largest one is shown. The character frame area CA is arranged in this character frame arrangement possible area PCA. The “character frame area” is an outer frame area of a character string to be arranged. In this embodiment, the font type and size of the character string are designated in advance in step S3, and the size of the character frame area CA is determined in accordance with these.

文字枠配置可能領域PCAの中における文字枠領域CAの位置の決定方法としては、以下のような種々の方法を採用することができる。
(A−1)文字枠配置可能領域PCAの中央に配置する。
(A−2)文字枠領域CAの内部に相当する位置における対象画像MFの色の変化が最も少ない位置に決定する。
As a method for determining the position of the character frame area CA in the character frame arrangeable area PCA, the following various methods can be employed.
(A-1) It is arranged at the center of the character frame arrangement possible area PCA.
(A-2) A position where the color change of the target image MF at the position corresponding to the inside of the character frame area CA is the smallest is determined.

方法(A−2)は、簡単に言えば、対象画像MFがほぼ一様な色を有する位置に文字枠領域CAを配置する、という意味である。具体的には、例えば、色相の分散が小さい領域に文字枠領域CAを配置すれば良い。この方法(A−2)を利用すれば、重要性の低い画像部分に文字列を配置することができる。一方、方法(A−1)を採用すれば、簡単な演算でバランスの良い位置に文字列を配置することが可能である。なお、方法(A−2)は、より一般的には以下の方法(A−2’)のように記載できる。   The method (A-2) simply means that the character frame area CA is arranged at a position where the target image MF has a substantially uniform color. Specifically, for example, the character frame area CA may be arranged in an area where the hue variance is small. If this method (A-2) is utilized, a character string can be arrange | positioned to a less important image part. On the other hand, if the method (A-1) is employed, it is possible to arrange character strings at well-balanced positions with simple calculations. The method (A-2) can be described more generally as the following method (A-2 ′).

(A−2’)文字枠領域CAの内部に相当する位置における対象画像MFの色の変化が小さいほど良好な値を示す色変化指標CCIを算出し、この色変化指標CCIが最も良好な値に近い所定範囲の値を取るように文字枠領域CAの位置を決定する。 (A-2 ′) A color change index CCI indicating a better value as the color change of the target image MF at a position corresponding to the inside of the character frame area CA is smaller is calculated, and the color change index CCI is the most favorable value. The position of the character frame area CA is determined so as to take a value in a predetermined range close to.

ここで、色変化指標CCIとしては、例えば、文字枠領域CA内における対象画像MFの色の分散や標準偏差などの統計値を用いることができる。具体的には、例えば色相値の分散を色変化指標CCIとして用いることができる。上記方法(A−2’)において、「色変化指標CCIが最も良好な値に近い所定範囲の値を取るように」という文言は、文字枠領域CAが取りうる種々の位置の中で、色変化指標CCIが最も良好な値を取る位置に限らず、この最も良好な値に近い所定範囲の値を取る位置を採用できることを意味している。このような場合には、他の指標(例えば印刷領域の左右の中心に近い、など)を用いて文字枠領域CAの位置を決定することが好ましい。   Here, as the color change index CCI, for example, a statistical value such as color dispersion or standard deviation of the target image MF in the character frame area CA can be used. Specifically, for example, the dispersion of hue values can be used as the color change index CCI. In the above method (A-2 ′), the phrase “so that the color change index CCI takes a value in a predetermined range that is close to the most favorable value” is used in various positions that the character frame area CA can take. This means that not only the position where the change index CCI takes the best value, but also a position where the change index CCI takes a value in a predetermined range close to the best value can be adopted. In such a case, it is preferable to determine the position of the character frame area CA using another index (for example, close to the left and right centers of the print area).

ところで、場合によっては、文字枠領域CAを文字枠配置可能領域PCAの内部に配置できないことがある。この場合には、以下のような種々の方法で文字枠領域CAの配置とサイズを決定することが可能である。
(A−3)文字枠領域CAと注目領域PAとが重ならないように文字枠領域CAと各文字の大きさを決定する。
(A−4)文字枠領域CAと注目領域PAの重なりが多くなるほど値が増大するような重なり評価指標を算出し、この重なり評価指標が最も小さくなるように文字枠領域CAの位置を決定する。
Incidentally, in some cases, the character frame area CA may not be arranged inside the character frame arrangeable area PCA. In this case, it is possible to determine the arrangement and size of the character frame area CA by the following various methods.
(A-3) The character frame area CA and the size of each character are determined so that the character frame area CA and the attention area PA do not overlap.
(A-4) An overlap evaluation index whose value increases as the overlap between the character frame area CA and the attention area PA increases, and the position of the character frame area CA is determined so that the overlap evaluation index becomes the smallest. .

この重なり評価指標としては、例えば、文字枠領域CAと注目領域PAとが重なる部分の面積を利用することができる。また、注目領域PA内で所定の肌色範囲の色を有する画素と、文字枠領域CAの画素(または文字の外形そのものを構成する画素)とが重なる位置の画素数を重なり評価指標として使用してもよい。すなわち、重なり評価指標としては、文字枠領域CAと注目領域PAの重なりの程度を示す任意の指標を使用することができる。これらの方法(A−3)や方法(A−4)を利用すれば、可能な限り文字枠領域CAが注目領域に重ならないように、文字枠領域CAの位置および/またはサイズを決定することができる。なお、方法(A−4)を使用する場合に、上記方法(A−2’)も併用して文字枠領域CAの位置を決定してもよい。なお、方法(A−4)は、より一般的には以下の方法(A−4’)のように記載できる。   As the overlap evaluation index, for example, the area of the portion where the character frame area CA and the attention area PA overlap can be used. In addition, the number of pixels at a position where a pixel having a predetermined flesh color range in the attention area PA and a pixel in the character frame area CA (or a pixel constituting the outline of the character itself) overlaps is used as an overlap evaluation index. Also good. That is, as the overlap evaluation index, an arbitrary index indicating the degree of overlap between the character frame area CA and the attention area PA can be used. If these methods (A-3) and (A-4) are used, the position and / or size of the character frame area CA is determined so that the character frame area CA does not overlap the attention area as much as possible. Can do. When using the method (A-4), the position of the character frame area CA may be determined by using the method (A-2 ′) together. The method (A-4) can be described more generally as the following method (A-4 ′).

(A−4’)文字枠領域CAと注目領域PAの重なりが多くなるほど値が増大するような重なり評価指標OEIを算出し、この重なり指標OEIが最も良好な値に近い所定範囲の値を取るように文字枠領域CAの位置を決定する。 (A-4 ′) An overlap evaluation index OEI is calculated such that the value increases as the overlap between the character frame area CA and the attention area PA increases, and the overlap index OEI takes a value in a predetermined range close to the best value. In this way, the position of the character frame area CA is determined.

なお、重なり評価指標OEIが良好な値を取るように文字枠領域CAの位置を決定すると、通常は文字枠領域CAと注目領域PAとが部分的に重なることになる。本明細書において、「注目領域PAを避けるように文字枠領域CAを配置する」とは、このような場合も含む広い意味を有している。   Note that when the position of the character frame area CA is determined so that the overlap evaluation index OEI takes a good value, the character frame area CA and the attention area PA usually partially overlap. In this specification, “arranging the character frame area CA so as to avoid the attention area PA” has a broad meaning including such a case.

ステップS6では、文字色決定部236が、文字枠領域CA内に配置される文字の色を、対象画像MFの色に応じて決定する。文字色の決定方法としては、例えば以下の方法を採用可能である。
(B−1)文字列の色相が、文字枠領域CA内における対象画像MFの平均色の色相と異なる色相となるように文字列の色を決定する。
(B−2)各文字の色相と、各文字に接する位置における対象画像MFの色相とが異なるように各文字の色を決定する。
(B−3)各文字の輪郭部分の色相を,対象画像MFの色相と異なる値に設定する。
In step S6, the character color determination unit 236 determines the color of the character arranged in the character frame area CA according to the color of the target image MF. As a method for determining the character color, for example, the following method can be adopted.
(B-1) The color of the character string is determined so that the hue of the character string is different from the hue of the average color of the target image MF in the character frame area CA.
(B-2) The color of each character is determined so that the hue of each character is different from the hue of the target image MF at a position in contact with each character.
(B-3) The hue of the outline portion of each character is set to a value different from the hue of the target image MF.

なお、文字の色相値を対象画像MFの色相値と異なる値に設定する際には、例えば、まず、文字の色データと対象画像MFの色データを色相を含む3属性(例えば明度、彩度、色相)の値に必要に応じてそれぞれ変換する。そして、対象画像MFの色相値に所定の値を加算することによって、文字の色相値を決定することができる。こうすれば、文字の色と対象画像MFの色が同系色にならないように文字色を決定できる。文字の色は、文字列全体で同じ色を使用することができる。また、各文字毎に異なる色を設定するようにしてもよい。あるいは、文字列全体で次第に色が変化するグラデーションとなるように、各文字内の各画素の色を決定してもよい。また、これらの文字色決定モードのいずれかをユーザが指定できるようにしてもよい。これらの方法(B−1)〜(B−3)や他の類似の方法を利用すれば、文字の背景となっている対象画像MFの中に文字がとけ込んでしまい、文字が見にくくなる現象を緩和することができる。但し、ステップS6を省略し、文字色を変更しないようにしてもよい。   Note that when setting the hue value of a character to a value different from the hue value of the target image MF, for example, first, the color data of the character and the color data of the target image MF are set to three attributes (for example, brightness and saturation). , Hue) values are converted as necessary. Then, the hue value of the character can be determined by adding a predetermined value to the hue value of the target image MF. In this way, the character color can be determined so that the character color and the color of the target image MF do not become similar colors. The same color can be used for the entire character string. Further, a different color may be set for each character. Or you may determine the color of each pixel in each character so that it may become the gradation from which a color changes gradually in the whole character string. Further, any one of these character color determination modes may be designated by the user. If these methods (B-1) to (B-3) or other similar methods are used, the character is melted into the target image MF that is the background of the character, and the character becomes difficult to see. Can be relaxed. However, step S6 may be omitted and the character color may not be changed.

ステップS7では、画像合成部238が、対象画像MFの上に文字列を重ねて配置した画像を合成して表示する。図3(D)は、こうして表示された合成画像の一例を示している。ステップS8では、ユーザが好ましい仕上がか否かを判断し、好ましく無い場合にはステップS9で文字列の内容や文字枠領域CAの位置を変更する。そして、好ましい合成画像が得られるまでステップS6〜S8が繰り返される。好ましい合成画像が完成すると、ステップS10でこの合成画像がカラープリンタ300で印刷される。このとき、画像データ出力部240は、合成画像の画像データから印刷データPDを作成してプリンタ300に供給する。この画像データ出力部240は、いわゆるプリンタドライバとしての機能を有している。但し、画像データ出力部240は、印刷データPDとして出力する代わりに、他の形式のカラー画像データ(例えばRGBデータ)で表現された合成画像を外部に出力することも可能である。   In step S7, the image composition unit 238 synthesizes and displays an image in which a character string is arranged on the target image MF. FIG. 3D shows an example of the composite image displayed in this way. In step S8, it is determined whether or not the finish is preferable. If not, the contents of the character string and the position of the character frame area CA are changed in step S9. Then, steps S6 to S8 are repeated until a preferable composite image is obtained. When a preferred composite image is completed, the composite image is printed by the color printer 300 in step S10. At this time, the image data output unit 240 creates print data PD from the image data of the composite image and supplies it to the printer 300. The image data output unit 240 has a function as a so-called printer driver. However, instead of outputting the print data PD, the image data output unit 240 can also output a composite image represented by other types of color image data (for example, RGB data) to the outside.

なお、文字列の入力をステップS3で行う代わりに、ステップS10で文字列を合成する前に文字列の入力を行うようにしてもよい。   Instead of inputting the character string in step S3, the character string may be input before synthesizing the character string in step S10.

この第1実施例では、顔領域を含む注目領域PAを避けるように文字列が配置されるので、人物を含む写真画像の中で重要性の高い顔の部分が文字列で隠されてしまう状態を抑制することができる。この結果、文字列を対象画像MFの適切な位置に重ねることが可能である。   In the first embodiment, since the character string is arranged so as to avoid the attention area PA including the face area, a state in which a highly important face part is hidden in the character string in the photographic image including the person. Can be suppressed. As a result, it is possible to overlap the character string at an appropriate position in the target image MF.

B.第2実施例:
図4は、第2実施例の処理内容を示す説明図である。第2実施例の装置構成と処理手順は、第1実施例と同じである。第2実施例では、注目領域PAの検出方法と、文字枠領域CAの配置方法とが第1実施例と異なる。
B. Second embodiment:
FIG. 4 is an explanatory diagram showing the processing contents of the second embodiment. The apparatus configuration and processing procedure of the second embodiment are the same as those of the first embodiment. In the second embodiment, the method of detecting the attention area PA and the arrangement method of the character frame area CA are different from those of the first embodiment.

図4(A)は第2実施例で使用する対象画像MFを示しており、図4(B)は2種類の注目領域PA1,PA2を示している。第1種の注目領域PA1は、人間の顔領域を含む領域であり、第1実施例で使用した注目領域PAと同じ方法で検出されたものである。第2種の注目領域PA2は、対象画像MFの画像部分の重要度を示す重要度指標MIを所定の算出方法で算出し、この重要度指標MIの高い領域として検出されたものである。   FIG. 4A shows a target image MF used in the second embodiment, and FIG. 4B shows two types of attention areas PA1 and PA2. The first type of attention area PA1 is an area including a human face area, and is detected by the same method as the attention area PA used in the first embodiment. The second type of attention area PA2 is an area where the importance index MI indicating the importance of the image portion of the target image MF is calculated by a predetermined calculation method and is detected as an area having a high importance index MI.

重要度指標MIの算出方法としては、例えば特開2001−126070号公報に記載されている方法を採用可能である。この公報に記載されている方法では、「誘目度」を、重要度指標MIとして採用する。この誘目度は、人間の主観に合ったパラメータであり、対象画像MFの画像位置における物理的(特徴色の異質度、テクスチャの異質度、形の異質度および面積の異質度など)に基づいて定量的に決定される値である。この方法では、誘目度が閾値以上である画像部分(あるいはその画像部分を包含する矩形領域)が第2種の注目領域PA2として検出される。   As a method for calculating the importance index MI, for example, a method described in Japanese Patent Application Laid-Open No. 2001-127070 can be employed. In the method described in this publication, “attraction degree” is adopted as the importance index MI. This degree of attraction is a parameter suitable for human subjectivity, and is based on the physical (characteristic color heterogeneity, texture heterogeneity, shape heterogeneity, area heterogeneity, etc.) at the image position of the target image MF. It is a value determined quantitatively. In this method, an image portion (or a rectangular region including the image portion) having an attractiveness degree equal to or greater than a threshold value is detected as the second type of attention area PA2.

この方法や他の方法を用いて重要度指標MIを算出すれば、定量的な指標である重要度指標MIを用いて第2種の注目領域PA2を検出することができる。   If the importance index MI is calculated using this method or another method, the second type attention area PA2 can be detected using the importance index MI which is a quantitative index.

図4(C)は、第2実施例における文字枠配置可能領域PCAおよび文字枠領域CAの例を示している。文字枠配置可能領域PCAは、第1実施例と同様に、第1種と第2種の注目領域PA1,PA2のいずれとも重なりが生じない領域として決定される。文字枠配置可能領域PCAよりも文字枠領域CAが小さい場合には、第1実施例で説明した方法(A−1),(A−2),(A−2’)等に従って文字枠領域CAの位置が決定される。   FIG. 4C shows an example of the character frame arrangement possible area PCA and the character frame area CA in the second embodiment. As in the first embodiment, the character frame arrangement possible area PCA is determined as an area where no overlap occurs between the first type and the second type of attention areas PA1 and PA2. When the character frame area CA is smaller than the character frame arrangement possible area PCA, the character frame area CA is performed according to the method (A-1), (A-2), (A-2 ′), etc. described in the first embodiment. Is determined.

一方、文字枠領域CAを文字枠配置可能領域PCAの内部に配置できない場合には、例えば以下の条件1〜3を満たすように文字枠領域CAの配置を決定することが可能である。
(条件1)文字枠領域CAが第1種の注目領域PA1と重ならない位置とする。
(条件2)文字枠領域CAが第2種の注目領域PA2を可能な限り避ける位置とする。
(条件3)文字枠領域CAが第2種の注目領域PA2と重なる場合には、文字枠領域CAと第2種の注目領域PA2の重なりが多くなるほど値が増大するような重なり評価指標OEI’を算出し、この重なり評価指標OEI’が最も小さくなるように文字枠領域CAの位置を決定する。
On the other hand, when the character frame area CA cannot be arranged inside the character frame arrangeable area PCA, the arrangement of the character frame area CA can be determined so as to satisfy the following conditions 1 to 3, for example.
(Condition 1) The character frame area CA is set to a position that does not overlap with the first type of attention area PA1.
(Condition 2) The character frame area CA is positioned so as to avoid the second type of attention area PA2 as much as possible.
(Condition 3) When the character frame area CA overlaps the second type of attention area PA2, the overlap evaluation index OEI ′ such that the value increases as the overlap between the character frame area CA and the second type of attention area PA2 increases. And the position of the character frame area CA is determined so that the overlap evaluation index OEI ′ is minimized.

第2実施例の重なり評価指標OEI’としては、例えば、第2種の注目領域PA2の重要度指標MIに、文字枠領域CAと第2種の注目領域PA2とが重なる面積Rを乗じた値(MI×R)を利用することができる。あるいは、文字枠領域CAと第2種の注目領域PA2とが重なる面積Rそのものを重なり評価指標OEI’として用いてもよい。   The overlap evaluation index OEI ′ of the second embodiment is, for example, a value obtained by multiplying the importance index MI of the second type of attention area PA2 by the area R where the character frame area CA and the second type of attention area PA2 overlap. (MI × R) can be used. Alternatively, the area R itself in which the character frame area CA and the second type of attention area PA2 overlap may be used as the overlap evaluation index OEI '.

なお、上記条件3は、より一般的には以下の条件3’のように記載できる。   The condition 3 can be described more generally as the following condition 3 '.

(条件3’)文字枠領域CAが第2種の注目領域PA2と重なる場合には、文字枠領域CAと第2種の注目領域PA2の重なりが多くなるほど値が増大するような重なり評価指標OEI’を算出し、この重なり指標OEI’が最も良好な値に近い所定範囲の値を取るように文字枠領域CAの位置を決定する。 (Condition 3 ′) When the character frame area CA overlaps the second type of attention area PA2, the overlap evaluation index OEI increases as the overlap between the character frame area CA and the second type of attention area PA2 increases. 'Is calculated, and the position of the character frame area CA is determined so that the overlap index OEI' takes a value in a predetermined range close to the best value.

第2実施例では、顔領域を含む第1種の注目領域PA1には文字列が重ならず、また、顔領域以外の第2種の注目領域PA2の上にはなるべく文字列が重ならないように文字列を配置するので、人物以外の重要な被写体を含むような画像においても、文字列を適切な位置に配置することができる。   In the second embodiment, the character strings do not overlap the first type of attention area PA1 including the face area, and the character strings do not overlap as much as possible on the second type of attention area PA2 other than the face area. Therefore, even in an image including an important subject other than a person, the character string can be arranged at an appropriate position.

なお、第2実施例における文字色の決定方法としては、第1実施例と同じ方法(B−1)〜(B−3)などを採用することが可能である。   As the character color determination method in the second embodiment, the same methods (B-1) to (B-3) as in the first embodiment can be adopted.

C.変形例:
なお、この発明は上記実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variation:
In addition, this invention is not restricted to the said Example and embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

C1.変形例1:
上記各実施例における各種の指標の計算方法は例示であり、これら以外の種々の方法で各種の指標を計算するようにしてもよい。
C1. Modification 1:
The calculation methods of various indexes in the above embodiments are examples, and various indexes may be calculated by various methods other than these.

C2.変形例2:
第2実施例では、第1種の注目領域PA1と第2種の注目領域PA2がそれぞれ1つずつ検出されていたが、これらはそれぞれ複数個検出される場合がある。また、2種類の注目領域PA1,PA2のいずれか一方のみが検出され、他方が検出されない場合もあり得る。これらの場合にも、上述した方法に従って、文字列の位置を決定することが可能である。
C2. Variation 2:
In the second embodiment, the first type of attention area PA1 and the second type of attention area PA2 are detected one by one, but a plurality of these may be detected. In addition, only one of the two types of attention areas PA1 and PA2 may be detected and the other may not be detected. Also in these cases, the position of the character string can be determined according to the method described above.

C3.変形例3:
上記実施例では、対象画像MFが、印刷媒体の領域(印刷領域)の全体を覆うように拡大または縮小されていたが、この代わりに、印刷領域の一部のみに対象画像MFが配置されるようにしてもよい。この場合には、文字枠領域決定部234は、文字枠領域CAが印刷領域の中のいずれかの位置に配置されるように、文字枠領域CAを設定することができる。
C3. Variation 3:
In the above embodiment, the target image MF is enlarged or reduced so as to cover the entire area (print area) of the print medium. Instead, the target image MF is arranged only in a part of the print area. You may do it. In this case, the character frame area determination unit 234 can set the character frame area CA so that the character frame area CA is arranged at any position in the print area.

本発明の第1実施例としての画像処理システムを示す説明図。1 is an explanatory diagram showing an image processing system as a first embodiment of the present invention. FIG. 第1実施例における処理手順を示すフローチャート。The flowchart which shows the process sequence in 1st Example. 第1実施例の処理内容を示す説明図。Explanatory drawing which shows the processing content of 1st Example. 第2実施例の処理内容を示す説明図。Explanatory drawing which shows the processing content of 2nd Example.

符号の説明Explanation of symbols

100…デジタルカメラ
200…コンピュータ
210…画像処理部
220…文字入力受信部
230…画像選択部
232…注目領域検出部
234…文字枠領域決定部
236…文字色決定部
238…画像合成部
240…画像データ出力部
250…装飾画像格納部
252…装飾画像選択部
300…カラープリンタ
CA…文字枠領域
CIN…入力文字列
FM…装飾画像
MF…対象画像
PA…注目領域
PA1…第1種注目領域
PA2…第2種注目領域
PCA…文字枠配置可能領域
DESCRIPTION OF SYMBOLS 100 ... Digital camera 200 ... Computer 210 ... Image processing part 220 ... Character input receiving part 230 ... Image selection part 232 ... Attention area detection part 234 ... Character frame area determination part 236 ... Character color determination part 238 ... Image composition part 240 ... Image Data output section 250 ... decoration image storage section 252 ... decoration image selection section 300 ... color printer CA ... character frame area CIN ... input character string FM ... decoration image MF ... target image PA ... attention area PA1 ... first type attention area PA2 ... Type 2 attention area PCA ... Character frame layout possible area

Claims (15)

対象画像に文字列を重ねて配置するための画像処理装置であって、
対象画像を解析することによって注目領域を検出する注目領域検出部と、
前記注目領域を避けるように文字枠領域の位置を決定する文字枠領域決定部と、
前記文字枠領域内に文字列を配置することによって、前記対象画像の上に前記文字列が重ねられた合成画像を生成する画像合成部と、
を備える画像処理装置。
An image processing apparatus for arranging a character string on a target image,
An attention area detection unit for detecting an attention area by analyzing a target image;
A character frame region determination unit that determines the position of the character frame region so as to avoid the attention region;
An image compositing unit that generates a composite image in which the character string is superimposed on the target image by arranging a character string in the character frame region;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記文字枠領域決定部は、前記文字枠領域と前記注目領域との重なりが生じないように前記文字枠領域の位置を決定する、画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus, wherein the character frame region determination unit determines the position of the character frame region so that the character frame region and the attention region do not overlap.
請求項2記載の画像処理装置であって、
前記文字枠領域決定部は、
前記文字枠領域に相当する位置における前記対象画像の色の変化が小さいほど良好な値を示す色変化指標を算出し、
前記文字枠領域と前記注目領域との重なりが生じず、かつ、前記色変化指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定する、画像処理装置。
The image processing apparatus according to claim 2,
The character frame region determination unit
A color change index indicating a better value as the color change of the target image at a position corresponding to the character frame region is smaller;
An image processing apparatus that determines a position of the character frame region so that the character frame region and the attention region do not overlap with each other, and the color change index takes a value in a predetermined range close to the best value.
請求項2または3記載の画像処理装置であって、
前記文字枠領域決定部は、前記文字枠領域と前記注目領域との重なりが生じないように前記文字枠領域と各文字の大きさを決定する、画像処理装置。
The image processing apparatus according to claim 2 or 3,
The image processing apparatus, wherein the character frame region determination unit determines the character frame region and the size of each character so that the character frame region and the attention region do not overlap.
請求項1記載の画像処理装置であって、
前記文字枠領域決定部は、
前記文字枠領域と前記注目領域とが部分的に重なる場合には、前記文字枠領域と前記注目領域の重なり量が少ないほど良好な値を示す重なり評価指標を算出し、
前記重なり評価指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定する、画像処理装置。
The image processing apparatus according to claim 1,
The character frame region determination unit
When the character frame area and the attention area partially overlap, calculate an overlap evaluation index indicating a better value as the amount of overlap between the character frame area and the attention area decreases,
An image processing apparatus that determines the position of the character frame region so that the overlap evaluation index takes a value in a predetermined range close to a best value.
請求項5記載の画像処理装置であって、
前記文字枠領域決定部は、
前記文字枠領域に相当する位置における前記対象画像の色の変化が小さいほど良好な値を示す色変化指標を算出し、
前記重なり評価指標が最も良好な値に近い所定範囲の値を取り、かつ、前記色変化評価指標が最も良好な値に近い所定範囲の値を取るように前記文字枠領域の位置を決定する、画像処理装置。
The image processing apparatus according to claim 5, wherein
The character frame region determination unit
A color change index indicating a better value as the color change of the target image at a position corresponding to the character frame region is smaller;
Determining the position of the character frame region so that the overlap evaluation index takes a value in a predetermined range close to the best value and the color change evaluation index takes a value in a predetermined range close to the best value; Image processing device.
請求項1ないし6のいずれかに記載の画像処理装置であって、
前記注目領域検出部は、人間の顔を含む領域を第1種の注目領域として検出することが可能である、画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The said attention area detection part is an image processing apparatus which can detect the area | region containing a human face as a 1st type attention area.
請求項7記載の画像処理装置であって、
前記注目領域検出部は、さらに、前記対象画像の画像部分の重要度が高いほど良好な値を示す重要度指標を算出し、前記重要度指標の良好な領域を第2種の注目領域として検出することが可能である、画像処理装置。
The image processing apparatus according to claim 7,
The attention area detection unit further calculates an importance index indicating a better value as the importance of the image portion of the target image is higher, and detects an area having a better importance index as a second type of attention area. An image processing apparatus capable of
請求項8記載の画像処理装置であって、
前記文字枠領域決定部は、前記第1種と第2種の注目領域が存在する場合に、
(i)前記文字枠領域と前記第1種の注目領域とに重なりが生じず、かつ、
(ii)前記文字枠領域と前記第2種の注目領域の重なりが少ないほど良好な値を示す重なり評価指標を算出し、前記重なり評価指標が最も良好な値に近い所定範囲の値を取るように、
前記文字枠領域の位置を決定する、画像処理装置。
The image processing apparatus according to claim 8, wherein
The character frame area determination unit, when the first type and the second type of attention area exist,
(I) There is no overlap between the character frame area and the first type of attention area, and
(Ii) An overlap evaluation index indicating a better value as the overlap between the character frame area and the second type of attention area is smaller is calculated, and the overlap evaluation index takes a value in a predetermined range close to the most favorable value. In addition,
An image processing apparatus for determining a position of the character frame area.
請求項1ないし9のいずれかに画像処理装置であって、
前記対象画像は、印刷領域内の一部に配置されており、
前記文字枠領域決定部は、前記印刷領域内で前記文字枠を配置する、画像処理装置。
An image processing apparatus according to any one of claims 1 to 9,
The target image is arranged in a part of the print area,
The character frame region determination unit is an image processing device that arranges the character frame in the print region.
請求項1ないし10のいずれかに記載の画像処理装置であって、さらに、
前記文字枠領域内における前記対象画像の色に応じて前記文字列の色を決定する文字色決定部を備える、画像処理装置。
The image processing apparatus according to any one of claims 1 to 10, further comprising:
An image processing apparatus comprising: a character color determining unit that determines a color of the character string in accordance with a color of the target image in the character frame region.
請求項11記載の画像処理装置であって、
前記文字色決定部は、前記文字列の色相が、前記文字枠領域内における前記対象画像の平均色の色相と異なるように前記文字列の色を決定する、画像処理装置。
The image processing apparatus according to claim 11,
The character processing unit determines the color of the character string so that the hue of the character string is different from the average color hue of the target image in the character frame region.
請求項11記載の画像処理装置であって、
前記文字色決定部は、各文字の色相と、各文字に接する位置における前記対象画像の色相とが異なるように各文字の色を決定する、画像処理装置。
The image processing apparatus according to claim 11,
The said character color determination part is an image processing apparatus which determines the color of each character so that the hue of each character and the hue of the said target image in the position which touches each character may differ.
対象画像に文字列を重ねて配置するための方法であって、
(a)コンピュータが、対象画像を解析することによって注目領域を検出する工程と、
(b)コンピュータが、前記注目領域を避けるように文字枠領域の位置を決定する工程と、
(c)コンピュータが、前記文字枠領域内に文字列を配置することによって、前記対象画像の上に前記文字列が重ねられた合成画像を生成する工程と、
を備える方法。
A method for overlaying a character string on a target image,
(A) a computer detecting a region of interest by analyzing a target image;
(B) a step of determining a position of the character frame area so as to avoid the attention area;
(C) a step of generating a composite image in which the character string is superimposed on the target image by arranging a character string in the character frame region;
A method comprising:
対象画像に文字列を重ねて配置するためのコンピュータプログラムであって、
対象画像を解析することによって注目領域を検出する機能と、
前記注目領域を避けるように文字枠領域の位置を決定する機能と、
前記文字枠領域内に文字列を配置することによって、前記対象画像の上に前記文字列が重ねられた合成画像を生成する機能と、
をコンピュータに実現させるコンピュータプログラム。
A computer program for arranging a character string on a target image,
A function to detect a region of interest by analyzing the target image;
A function of determining the position of the character frame area so as to avoid the attention area;
A function of generating a composite image in which the character string is superimposed on the target image by arranging a character string in the character frame region;
A computer program that causes a computer to realize
JP2003397400A 2003-11-27 2003-11-27 Composition of image and character string Pending JP2005159850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003397400A JP2005159850A (en) 2003-11-27 2003-11-27 Composition of image and character string

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003397400A JP2005159850A (en) 2003-11-27 2003-11-27 Composition of image and character string

Publications (1)

Publication Number Publication Date
JP2005159850A true JP2005159850A (en) 2005-06-16

Family

ID=34722567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003397400A Pending JP2005159850A (en) 2003-11-27 2003-11-27 Composition of image and character string

Country Status (1)

Country Link
JP (1) JP2005159850A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007129471A (en) * 2005-11-02 2007-05-24 Fujifilm Corp Image processing system
JP2008077637A (en) * 2006-09-19 2008-04-03 Teco Image Systems Co Ltd Image processing method and image printing apparatus
JP2008245233A (en) * 2007-03-01 2008-10-09 Nippon Hoso Kyokai <Nhk> Shielding control device, subject shielding control system, and shielding control program
JP2009246545A (en) * 2008-03-28 2009-10-22 Brother Ind Ltd Image output device
JP2009296397A (en) * 2008-06-06 2009-12-17 Nec Saitama Ltd Mobile terminal, method for automatically setting time display attribute, and program
JP2011024272A (en) * 2010-11-04 2011-02-03 Fujifilm Corp Image processing apparatus, image processing method and program
JP2012199743A (en) * 2011-03-22 2012-10-18 Tatsumi Denshi Kogyo Kk Automatic photograph making apparatus
EP1912447A4 (en) * 2005-07-26 2013-10-16 Sharp Kk IMAGE PROCESSING DEVICE
WO2013171857A1 (en) * 2012-05-16 2013-11-21 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium
JP5793260B1 (en) * 2014-11-21 2015-10-14 楽天株式会社 Information processing apparatus, information processing method, and information processing program
US12229394B2 (en) 2020-11-26 2025-02-18 Samsung Electronics Co., Ltd. Electronic device for setting background screen and operating method therefor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1912447A4 (en) * 2005-07-26 2013-10-16 Sharp Kk IMAGE PROCESSING DEVICE
JP2007129471A (en) * 2005-11-02 2007-05-24 Fujifilm Corp Image processing system
JP2008077637A (en) * 2006-09-19 2008-04-03 Teco Image Systems Co Ltd Image processing method and image printing apparatus
JP2008245233A (en) * 2007-03-01 2008-10-09 Nippon Hoso Kyokai <Nhk> Shielding control device, subject shielding control system, and shielding control program
US8279492B2 (en) 2008-03-28 2012-10-02 Brother Kogyo Kabushiki Kaisha Image processing devices and computer program products for processing image data
JP2009246545A (en) * 2008-03-28 2009-10-22 Brother Ind Ltd Image output device
JP2009296397A (en) * 2008-06-06 2009-12-17 Nec Saitama Ltd Mobile terminal, method for automatically setting time display attribute, and program
JP2011024272A (en) * 2010-11-04 2011-02-03 Fujifilm Corp Image processing apparatus, image processing method and program
JP2012199743A (en) * 2011-03-22 2012-10-18 Tatsumi Denshi Kogyo Kk Automatic photograph making apparatus
WO2013171857A1 (en) * 2012-05-16 2013-11-21 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium
JP5753945B2 (en) * 2012-05-16 2015-07-22 楽天株式会社 Image processing apparatus, image processing apparatus control method, program, and information storage medium
US9996516B2 (en) 2012-05-16 2018-06-12 Rakuten, Inc. Image processing device for determining a display position of an annotation
JP5793260B1 (en) * 2014-11-21 2015-10-14 楽天株式会社 Information processing apparatus, information processing method, and information processing program
WO2016079868A1 (en) * 2014-11-21 2016-05-26 楽天株式会社 Information processing device, information processing method, and information processing program
US12229394B2 (en) 2020-11-26 2025-02-18 Samsung Electronics Co., Ltd. Electronic device for setting background screen and operating method therefor

Similar Documents

Publication Publication Date Title
US7916973B2 (en) Image processing apparatus, an image processing method, and a computer readable medium having recorded thereon a processing program for permitting a computer to perform image processing routines
JP3607059B2 (en) Color feature extraction apparatus, color feature extraction method, and program storage medium
KR101273730B1 (en) Color adjusting apparatus, display apparatus, printing apparatus, image processing apparatus, color adjustment method, gui display method, and program
US20090027732A1 (en) Image processing apparatus, image processing method, and computer program
JP2005269639A (en) Color image-grayscale image conversion method and system, grayscale image, color-grayscale conversion improvement method, and edge enhancement method
JP2005159850A (en) Composition of image and character string
JP4208396B2 (en) Image processing method, apparatus, and recording medium
US20040135790A1 (en) Correcting the color cast of an image
EP1538825A2 (en) Color reduction processing apparatus, printer control device, color reduction method, and printer control method
US7170638B2 (en) Method, system and recording medium for image processing
JP2008072650A (en) Image processor, image forming apparatus, and program
US20050200923A1 (en) Image generation for editing and generating images by processing graphic data forming images
JP2006332908A (en) Color image display device, color image display method, program, and recording medium
JP2006350936A (en) Image forming device and image forming program
JP2006121416A (en) Method and apparatus of processing image, program and printer
JP2006350521A (en) Image forming device and image forming program
JPH0659657A (en) Image processing device
JPH1188712A (en) Image processing method and image processor
JP2006350462A (en) Album image preparation device and album image preparation program
JP2007208912A (en) Image processing apparatus and control method, computer program, and storage medium
JP4946370B2 (en) Image processing apparatus, image forming apparatus, and program
JP2005244536A (en) Image composition to create a composite image by overlaying images
JP2006140873A (en) Device and method for evaluating image quality
JP2020131534A (en) Image formation apparatus
JP4826562B2 (en) Image processing apparatus, image processing method, and image processing program