[go: up one dir, main page]

JP2017004258A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2017004258A
JP2017004258A JP2015117612A JP2015117612A JP2017004258A JP 2017004258 A JP2017004258 A JP 2017004258A JP 2015117612 A JP2015117612 A JP 2015117612A JP 2015117612 A JP2015117612 A JP 2015117612A JP 2017004258 A JP2017004258 A JP 2017004258A
Authority
JP
Japan
Prior art keywords
face
image processing
person
touch
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015117612A
Other languages
Japanese (ja)
Other versions
JP2017004258A5 (en
Inventor
宮坂 淳一
Junichi Miyasaka
淳一 宮坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015117612A priority Critical patent/JP2017004258A/en
Publication of JP2017004258A publication Critical patent/JP2017004258A/en
Publication of JP2017004258A5 publication Critical patent/JP2017004258A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 人物の顔画像をよりきめ細かく画像処理できるようにする。【解決手段】 制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、その部位に応じて異なる画像処理(メイクアップ処理)をその部位に対して実行する。例えば、タッチ操作によって指定された部位が肌であれば、その画像部分に対して露出補正、彩度や明度の補正、ソフトフォーカス補正などを行うことによって、皺、肌荒れなどを目立ちにくくする画像処理を実行する。【選択図】 図1PROBLEM TO BE SOLVED: To perform finer image processing of a human face image. When a touch operation is performed in a state where an image including a person's face is displayed on a touch display unit 6, a control unit 1 specifies a part of the person's face specified by the touch position of the touch operation And different image processing (make-up process) is performed on the part depending on the part. For example, if the part specified by the touch operation is skin, image processing that makes wrinkles and rough skin less noticeable by performing exposure correction, saturation and lightness correction, soft focus correction, etc. on the image part Execute. [Selection] Figure 1

Description

本発明は、人物の顔を含む画像を処理する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image including a human face.

最近、デジタルカメラやビデオカメラなどの撮像装置にあっては、自分自身を撮影する機会が増えてきている。特に、女性にあってはより美しく写りたいという要望が強いため、人物撮影時に被写体(例えば、撮影者)の顔を検出し、検出した顔が女性であると判断すると、例えば、露出補正、ソフトフォーカス補正、美肌補正、人物を痩身にみせる補正などの処理を施す撮像装置が、特許文献1のように提案されている。しかしながら、上述の処理は、女性の顔であると判断した場合に全自動で一律決められた強度で補正を行うため、撮影者又は被写体の所望する強度で補正処理を行うことはできないという問題があった。このように撮影者又は被写体が所望する強度で補正処理を行うには、それぞれの補正処理について手動で補正強度を設定して撮影する必要があるため、従来においては、撮影者が複数種の補正処理の補正強度をより簡単に設定することを可能とする技術として、特許文献2が開示されている。   Recently, in an imaging apparatus such as a digital camera or a video camera, an opportunity for photographing itself is increasing. In particular, because there is a strong demand for more beautiful images for women, if the face of a subject (eg, a photographer) is detected when photographing a person and it is determined that the detected face is a woman, for example, exposure compensation, software An image pickup apparatus that performs processing such as focus correction, skin beautification correction, and correction of making a person look slim is proposed as disclosed in Patent Document 1. However, since the above-described processing performs correction with a uniform intensity automatically when it is determined that the face is a woman's face, there is a problem that the correction processing cannot be performed with the intensity desired by the photographer or the subject. there were. In this way, in order to perform correction processing at the intensity desired by the photographer or subject, it is necessary to manually set the correction intensity for each correction process and shoot. Patent Document 2 is disclosed as a technique that makes it possible to more easily set the correction intensity of processing.

特許第5239126号公報Japanese Patent No. 5239126 特許第5083116号公報Japanese Patent No. 5083116

上述した特許文献2は、キー操作によって設定した美顔レベルに応じて、複数種の補正処理の補正強度を設定することができ、人物の顔に対して美顔レベル毎に異なる画像処理を行うことが可能となる。
ところで、美白やパッチリ目を好まない人、皺よりも痣を気にする人などのように美顔の意識は、人物によって異なり、更に、同じ人物であっても口元が綻んでいる方が良い場合と引き締まっている方が良い場合、顔全体の美顔よりも一部だけを変えたい場合などがある。
According to Patent Document 2 described above, correction strengths of a plurality of types of correction processing can be set according to the beautiful face level set by a key operation, and different image processing can be performed on a human face for each beautiful face level. It becomes possible.
By the way, people who don't like whitening and patchy eyes, people who care about wrinkles rather than wrinkles, etc. have different facial consciousness depending on the person, and even if the same person is better off your mouth When it is better to tighten, there are cases where it is desired to change only a part of the face rather than the beautiful face.

本発明の課題は、人物の顔画像をよりきめ細かく画像処理できるようにすることである。   An object of the present invention is to enable finer image processing of a human face image.

上述した課題を解決するために本発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする。
In order to solve the above-described problems, the present invention
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
It is characterized by providing.

本発明によれば、人物の顔画像をよりきめ細かく画像処理することができる。   According to the present invention, a person's face image can be processed more finely.

画像処理装置として適用した撮像装置の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the imaging device applied as an image processing apparatus. (1)、(2)は、ライブビュー画像を見ながら撮影者自身を撮影する自分撮りが可能な構成の撮像装置(デジタルカメラ)を示した外観図。(1), (2) is an external view showing an imaging device (digital camera) configured to be able to take a self-photographing photographer himself while viewing a live view image. メイクアップテーブル3cを説明するための図。The figure for demonstrating the makeup table 3c. メイクアップテーブル3cに記憶されている各種のメイクアップ処理の内容を具体的に説明するための図。The figure for demonstrating concretely the content of the various makeup processes memorize | stored in the makeup table 3c. 撮影モード(RECモード)に切り替えられた際に実行開始される動作を示したフローチャート。The flowchart which showed the operation | movement started when it switches to imaging | photography mode (REC mode). メイクアップ処理(図5のステップA6)を詳述するためのフローチャート。6 is a flowchart for explaining in detail a makeup process (step A6 in FIG. 5). (1)〜(3)は、メイクアップ処理に移行する過程での画像表示例を示した図。(1)-(3) is the figure which showed the example of an image display in the process which transfers to makeup processing. 第2実施形態におけるメイクアップテーブル3cを説明するための図。The figure for demonstrating the makeup table 3c in 2nd Embodiment. 第2実施形態におけるメイクアップ処理(図5のステップA6)を詳述するためのフローチャート。6 is a flowchart for explaining in detail makeup processing (step A6 in FIG. 5) according to the second embodiment.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図7を参照して本発明の第1実施形態を説明する。
本実施形態では、タッチ表示部に人物の顔を含む画像が表示されている状態で、タッチ操作された位置にあたる人物の顔の部位に応じたメイクアップ処理を、表示されている人物の顔の部位に対して実行することを特徴としている。タッチ操作は1回タッチして離すシングルタップだけでなく、タッチ状態を維持したままタッチ位置を移動させるなぞり操作の軌跡に応じてメイクアップ処理を実行することできめ細かい画像処理を可能とする。
本実施形態は、画像処理装置として撮像装置に適用した場合を例示したもので、図1は、撮像装置の基本的な構成要素を示したブロック図である。
この撮像装置は、被写体を高精細に撮影可能な撮像機能、記録保存されている撮影済み画像(記録画像)を任意に読み出して再生する画像再生機能などを備えたデジタルカメラである。制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内に格納されている各種のプログラムに応じてこの撮像装置(デジタルカメラ)の全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
In the present embodiment, in a state in which an image including a person's face is displayed on the touch display unit, a makeup process corresponding to the part of the person's face corresponding to the touch-operated position is performed on the face of the displayed person's face. It is characterized by being performed on a part. The touch operation is not limited to a single tap that is touched once and released, but a make-up process can be executed according to the trajectory of a tracing operation that moves the touch position while maintaining the touch state, thereby enabling fine image processing.
This embodiment exemplifies a case where the present invention is applied to an imaging apparatus as an image processing apparatus, and FIG. 1 is a block diagram illustrating basic components of the imaging apparatus.
This imaging apparatus is a digital camera provided with an imaging function capable of photographing a subject with high definition, an image reproduction function for arbitrarily reading and reproducing a captured image (recorded image) recorded and stored. The control unit 1 operates by supplying power from the power source unit (secondary battery) 2 and controls the overall operation of the imaging apparatus (digital camera) according to various programs stored in the storage unit 3. The control unit 1 is provided with a CPU (Central Processing Unit) and a memory (not shown).

記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ3aと、フラグなどのデータを一時記憶するワークメモリ3b、後述するメイクアップテーブル3cなどを有している。なお、記憶部3は、例えば、複数枚の撮影済み画像(保存画像群)を記憶可能なSDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。なお、SDカードなどの可搬型メモリは、高画質の撮影済み画像(記録画像)を複数記憶するメモリである。   The storage unit 3 includes, for example, a ROM, a flash memory, and the like, and stores programs and various applications for realizing the present embodiment in accordance with operation procedures shown in FIGS. 5 and 6 to be described later. A program memory 3a, a work memory 3b for temporarily storing data such as flags, and a makeup table 3c described later. The storage unit 3 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card that can store a plurality of captured images (saved image group), for example, Although not shown, a storage area on a predetermined server device side may be included when connected to a network via a communication function. A portable memory such as an SD card is a memory that stores a plurality of high-quality captured images (recorded images).

操作部4は、図示省略したが、各種のハードキーとして、電源オン/オフを行う電源キーと、撮影が可能なモード(RECモード)と撮影済み画像(記録画像)を再生するモード(PLAYモード)を切り替えたり、RECモード内において画像内の人物の顔をメイクアップする処理を実行するメイクアップモードに切り替えたりするモード変更キーと、撮影を指示するレリーズキーなど、各種のハードキーを備えたもので、制御部1は、このハードキーの操作に応じて、例えば、モード変更処理、撮影処理などを実行する。   Although not shown, the operation unit 4 includes a power key for turning on / off the power as various hard keys, a mode capable of shooting (REC mode), and a mode for playing back a captured image (recorded image) (PLAY mode). ) And various hard keys such as a mode change key for switching to a makeup mode for executing a process for making up a person's face in the image in the REC mode, and a release key for instructing photographing. Therefore, the control unit 1 executes, for example, a mode change process, a photographing process, etc. according to the operation of the hard key.

撮像部5は、図示しないが、撮影レンズ5aからの被写体像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮像することが可能なもので、撮影レンズ、撮像素子、各種のセンサ、アナログ処理部、デジタル処理部を有している。この撮像部5によって撮像された画像に対して制御部1は、ホワイトバランス調整、色補間、階調変換、輪郭強調などの通常の画像処理を施すが、特に、上述のメイクアップモードでは、人物の顔を化粧したり、整形したりする画像加工を行うメイクアップ処理(画像処理)を施すようにしている。更に、制御部1は、画像処理した画像に対して画像圧縮処理を施した後、記憶部3の記録メディアに記録保存させる。   Although not shown, the imaging unit 5 can capture a subject with high definition by forming a subject image from the photographing lens 5a on an image sensor (CCD, CMOS, etc.). It has elements, various sensors, an analog processing unit, and a digital processing unit. The control unit 1 performs normal image processing such as white balance adjustment, color interpolation, gradation conversion, and contour enhancement on the image captured by the image capturing unit 5. Makeup processing (image processing) for performing image processing for making up or shaping the face is performed. Further, the control unit 1 performs image compression processing on the image processed image, and then records and saves the image on the recording medium of the storage unit 3.

タッチ表示部6は、画像を表示する高精細液晶、有機EL(Electro Luminescence)などの表示部6aと、透明タッチパネルを有するタッチ操作部6bとを備え、表示部6a上にタッチ操作部6bを積層配置したタッチスクリーンを構成し、各種のソフトウェアキー(アイコン、タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ操作に応じた操作信号を入力したりする。タッチ表示部6の表示画面は、撮像された画像(ライブビュー画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像(記録画像)を再生する再生画面となったりする。   The touch display unit 6 includes a display unit 6a such as high-definition liquid crystal or organic EL (Electro Luminescence) for displaying an image, and a touch operation unit 6b having a transparent touch panel, and the touch operation unit 6b is stacked on the display unit 6a. The arranged touch screen is configured, and various software keys (icons, touch keys) are assigned and arranged to display their function names, or a touch operation with a finger or the like is detected and an operation signal corresponding to the touch operation is input. To do. The display screen of the touch display unit 6 may be a monitor screen (live view screen) that displays captured images (live view images) in real time or a playback screen that plays back captured images (recorded images). .

タッチ操作部6bは、例えば、静電容量方式、あるいは抵抗皮膜方式を採用したもので、制御部1は、タッチ操作部6bからの接触有無信号(タッチオン信号/タッチオフ信号)に基づいてタッチ操作部6b上の座標位置(接触位置)、接触方向、接触距離、接触時間を検出してタッチ操作の有無及びタッチ操作の種類を判別する。なお、タッチ操作の種類としては、任意の位置を接触してすぐに離す操作の“シングルタップ”、接触し続けて任意の方向に移動する“なぞり”などの操作である。   The touch operation unit 6b employs, for example, an electrostatic capacity method or a resistance film method, and the control unit 1 performs a touch operation unit based on a contact presence / absence signal (touch-on signal / touch-off signal) from the touch operation unit 6b. The coordinate position (contact position), the contact direction, the contact distance, and the contact time on 6b are detected to determine the presence or absence of the touch operation and the type of the touch operation. Note that the types of touch operations include “single tap” in which an arbitrary position is touched and immediately released, and “race” in which the user continues to touch and moves in an arbitrary direction.

なお、上述のタッチ操作とは、タッチ操作部6b上において指やペンで直接タッチする接触操作に限らず、その接触操作に近似する操作として、例えば、指やペンの接近や接近移動による静電容量変化などに応じて指やペンの位置を検出する近接操作を含むことを意味している。つまり、接触操作を検出する接触型タッチパネルに限らず、近接型タッチパネルやデバイスであってもよいが、本実施形態にあっては、タッチ操作として、接触型タッチパネル上での接触操作を例示した場合を示している。   Note that the touch operation described above is not limited to a touch operation that directly touches with the finger or pen on the touch operation unit 6b, but as an operation that approximates the touch operation, for example, an electrostatic due to the approach or movement of the finger or pen This means that it includes a proximity operation that detects the position of a finger or pen in accordance with a change in capacitance. That is, not only a contact-type touch panel that detects a contact operation but also a proximity-type touch panel or a device may be used. However, in the present embodiment, a contact operation on a contact-type touch panel is illustrated as a touch operation. Is shown.

図2は、ライブビュー画像を見ながら撮影者自身を撮影するいわゆる自分撮りが可能な構成の撮像装置(デジタルカメラ)の外観図を示した図である。
撮像装置(デジタルカメラ)を構成する筐体11は、薄型矩形の表示ブロック11aと、この表示ブロック11aの周囲を囲む矩形枠状のフレームブロック11bと、表示ブロック11aとフレームブロック11bとを連結するレンズブロック11cを有する構成で、表示ブロック11aの一端中央部(図示の例では上端中央部)とレンズブロック11cの一端中央部(図示の例では下端中央部)とは、横回転用のヒンジ部(図示省略)を介して横方向に回転可能に取り付けられている。また、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)とレンズブロック11cの両端部(図示の例では左右側部)とは、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられている。
FIG. 2 is an external view of an image pickup apparatus (digital camera) configured to perform so-called self-photographing of a photographer himself / herself while viewing a live view image.
A housing 11 constituting an imaging device (digital camera) connects a thin rectangular display block 11a, a rectangular frame frame block 11b surrounding the display block 11a, and the display block 11a and the frame block 11b. In the configuration having the lens block 11c, one end central portion (upper center portion in the illustrated example) of the display block 11a and one end central portion (lower end central portion in the illustrated example) of the display block 11a are a hinge portion for lateral rotation. It is attached so as to be able to rotate laterally through (not shown). Further, the inner sides of both ends of the frame block 11b (inside the left and right sides in the example of FIG. 2A) and the both ends of the lens block 11c (the left and right sides in the example shown in the figure) are hinge portions for vertical rotation (not shown). It is attached so as to be able to rotate vertically.

表示ブロック11aにはその中央部分にタッチ表示部6が配設され、レンズブロック11cの中央部には撮像部5を構成する撮影レンズ5aが配設されており、上述の横回転用のヒンジ部を介して表示ブロック11aをレンズブロック11cに対して180°回転させることにより、タッチ表示部6及び撮影レンズ5aを同じ方向に向けたり、逆方向に向けたりすることが可能となっている。なお、表示ブロック11aとレンズブロック11cを一体化して本体ブロックとし、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)と本体ブロックの両端部(図示の例では左右側部)とが、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられるようにしてもよい。図2(1)は、自分撮りを可能とするためにタッチ表示部6及び撮影レンズ5aを同じ方向に向けた状態において、表示ブロック11aに対してフレームブロック11bを閉じた状態、図2(2)は、表示ブロック11aに対してフレームブロック11bを開いた状態を示している。   The display block 11a is provided with a touch display unit 6 at the center thereof, and the lens block 11c is provided with a photographing lens 5a constituting the image pickup unit 5, and the above-described lateral rotation hinge unit. By rotating the display block 11a through 180 degrees with respect to the lens block 11c, the touch display unit 6 and the photographing lens 5a can be directed in the same direction or in the opposite direction. The display block 11a and the lens block 11c are integrated into a main body block. The inner side of both ends of the frame block 11b (inside the upper left and right sides in the example of FIG. 2 (1)) and the both ends of the main body block (left and right in the example shown in the figure). The side portion may be attached so as to be rotatable in the vertical direction via a hinge portion (not shown) for vertical rotation. 2 (1) shows a state in which the frame block 11b is closed with respect to the display block 11a in a state where the touch display unit 6 and the photographing lens 5a are directed in the same direction in order to enable self-portrait. ) Shows a state in which the frame block 11b is opened with respect to the display block 11a.

図3は、メイクアップテーブル3cを説明するための図である。
メイクアップテーブル3cは、画像内の人物の顔に対するメイクアップ処理(化粧したり、整形したりする画像処理)時に使用されるテーブルであり、人物の顔を構成する各部位に対応付けて各種のメイクアップ処理をアクセスする情報を記憶する構成となっている。メイクアップテーブル3cは、「人物の顔の部位」、「部位内の位置又は状態」、「人物の属性:女性」、「人物の属性:男性」の各項目を有し、その内容はユーザ操作によって任意に変更可能となっている。
FIG. 3 is a diagram for explaining makeup table 3c.
The makeup table 3c is a table used at the time of makeup processing (image processing for applying makeup or shaping) on a person's face in an image, and is associated with each part constituting the person's face. Information for accessing the makeup process is stored. The makeup table 3c has items of “a part of a person's face”, “position or state in the part”, “person attribute: female”, and “person attribute: male”. Can be changed arbitrarily.

「人物の顔の部位」は、メイクアップ処理の対象となる顔の部位を記憶する項目で、図示の例は、“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”を処理対象(選択候補)として記憶した場合である。制御部1は、画像内の人物の顔がタッチ操作された際に、その最初のタッチ位置に該当する顔の部位を判別して、メイクアップテーブル3cを参照し、その「人物の顔の部位」で示される“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”のうち、そのいずれかの部位へのタッチ操作であれば、その部位に対応付けられているメイクアップ処理を実行するようにしている。   The “person's face part” is an item for storing the part of the face to be subjected to the makeup process, and the example shown in the figure is “skin”, “eyes”, “eyebrows”, “睫”, “eyebrows” , “Teeth” is stored as a processing target (selection candidate). When the face of the person in the image is touched, the control unit 1 determines the face part corresponding to the first touch position, refers to the makeup table 3c, "Skin", "eyes", "eyebrows", "” "," eyebrows ", and" teeth "shown by The make-up process is executed.

「部位内の位置又は状態」は、「人物の顔の部位」で示される各部位に対応付けてその部位内の位置又は状態を記憶する項目であり、図示の例は、「人物の顔の部位」の“肌”に対応して、その部位の状態を示す情報として“皺、肌荒れ、毛穴など”、“シミ、くすみ、痣など”を記憶した場合である。また、“目”に対応して、その部位内の位置を示す情報として“目の内側”、“目の外側”を記憶した場合である。なお、図示の例では、“眉毛”、“睫”、“眉口”、“歯”に対応してその「部位内の位置又は状態」は記憶されていないが、「部位内の位置又は状態」を記憶するようにしてもよい。制御部1は、人物の顔内へのタッチ操作を検出した際に、そのタッチ位置が“肌”であれば、その状態を判別し、“目”であれば、その位置を判別して、メイクアップテーブル3cを参照し、そのいずれかの「部位内の位置又は状態」に該当しているかを判断するようにしている。   The “position or state within the part” is an item that stores the position or state within the part in association with each part indicated by “the part of the person's face”. This corresponds to the case where “wrinkles, rough skin, pores, etc.”, “stains, dullness, wrinkles, etc.” are stored as information indicating the state of the portion corresponding to “skin” of “part”. Further, this corresponds to the case where “inside of eyes” and “outside of eyes” are stored as information indicating the position in the part corresponding to “eyes”. In the example shown in the figure, the “position or state in the part” corresponding to “eyebrows”, “” ”,“ eyebrows ”,“ tooth ”is not stored, but“ position or state in the part ”is not stored. May be stored. When detecting a touch operation in the face of a person, the control unit 1 determines the state if the touch position is “skin”, and determines the position if the touch position is “eyes”. The makeup table 3c is referred to and it is determined whether it corresponds to one of the “positions or states in the part”.

「人物の属性:女性」、「人物の属性:男性」は、人物の属性として性別毎にメイクアップ処理をアクセスする情報を記憶する項目で、図示の例は、「人物の顔の部位」が“肌”の場合で、その「部位内の位置又は状態」が“皺、肌荒れ、毛穴など”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通のメイクアップ処理として“肌処理(1)”を記憶し、また、“シミ、くすみ、痣など”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“肌処理(2)”を記憶した場合を示している。また、「人物の顔の部位」が“目”の場合で、「部位内の位置又は状態」が“目の内側”の場合には、「人物の属性:女性」に対応して、“目処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“目処理(3)”を記憶した場合を示している。また、“目の外側”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“目処理(2)”を記憶した場合を示している。   “Person attribute: female” and “Person attribute: male” are items for storing information for accessing makeup processing for each gender as a person attribute. In the illustrated example, “person's face part” is In the case of “skin”, when the “position or state in the part” is “wrinkle, rough skin, pores, etc.”, corresponding to “person attribute: female”, “person attribute: male” “Skin treatment (1)” is stored as a common makeup process, and “stain, dullness, wrinkle, etc.” corresponds to “person attribute: female” and “person attribute: male”. In this example, “skin treatment (2)” is stored as a common process. In addition, when the “part of the human face” is “eyes” and the “position or state within the part” is “inside of the eyes”, the “eye attribute: female” corresponds to the “eyes”. Process (1) ”is stored, and“ eye process (3) ”is stored as another process different from that for female corresponding to“ person attribute: male ”. In the case of “outside of eyes”, “eye processing (2)” is stored as a common process corresponding to “person attribute: female” and “person attribute: male”. Yes.

更に、「人物の顔の部位」が“眉毛”の場合には、「人物の属性:女性」に対応して、“眉毛処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“眉毛処理(2)”を記憶した場合を示している。また、「人物の顔の部位」が“睫”の場合には、「人物の属性:女性」に対応して、“睫処理”のメイクアップ処理を記憶し、「人物の属性:男性」に対応して、メイクアップ処理を記憶していない場合を示している。「人物の顔の部位」が“口”の場合には、「人物の属性:女性」に対応して、“口処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“口処理(2)”を記憶した場合を示している。「人物の顔の部位」が“歯”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“歯処理”を記憶した場合を示している。   Furthermore, when “the face part of the person” is “eyebrow”, “eyebrow processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is supported. In this example, “eyebrow process (2)” is stored as another process different from that for a woman. If the “person's face part” is “睫”, the makeup process of “睫 treatment” is stored in correspondence with “person attribute: female”, and “person attribute: male” is stored. Correspondingly, a case where makeup processing is not stored is shown. When “portion of person's face” is “mouth”, “mouth processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is stored. In this example, “mouth processing (2)” is stored as another processing different from that for a woman. In the case where “person's face part” is “tooth”, “tooth treatment” is stored as a common process corresponding to “person attribute: female” and “person attribute: male”. ing.

制御部1は、人物の顔を含むライブビュー画像がタッチ表示部6に表示されている状態において、この顔内の所定の部位がタッチ操作された場合に、そのタッチ位置に該当する人物の属性とその顔の部位を判別すると共に、その部位内へのタッチ位置又は状態を判別し、その判別結果(部位、部位内へのタッチ位置又は状態)を基にメイクアップテーブル3cを検索することによって該当するメイクアップ処理を特定し、このメイクアップ処理をその部位に対して実行するようにしている。   In a state where a live view image including a person's face is displayed on the touch display unit 6, the control unit 1, when a predetermined part in the face is touched, the attribute of the person corresponding to the touch position And the face part, the touch position or state in the part is determined, and the makeup table 3c is searched based on the determination result (touch position or state in the part or part). The corresponding makeup process is specified, and this makeup process is executed for that part.

図4は、メイクアップテーブル3cに記憶されている各種のメイクアップ処理の内容を具体的に説明するための図である。
“肌処理(1)”、“肌処理(2)”は、撮像画像に対して施されるメイクアップ処理(美肌処理)であり、例えば、画像の露出を補正したり、彩度、明度を補正する処理を行うことによって肌を白くしたり、ソフトフォーカスなどを行うことによって皺、肌荒れ、シミが目立ちにくくしたりするように画像加工を施すもので、特に、“肌処理(1)”は、皺、肌荒れなどを目立たなくする処理であるのに対し、“肌処理(2)”は、シミ、くすみなどを目立たなくする処理である。“目処理(1)”、“目処理(2)”、“目処理(3)”は、目を変形したり、目の彩度、明度などを補正したりするもので、特に、“目処理(1)”は、目をパッチリと開かせる処理であり、“目処理(2)”は、白目の彩度、明度などを補正することにより、白目の充血を軽減する処理であり、“目処理(3)”は、目つきを鋭くする処理である。
FIG. 4 is a diagram for specifically explaining the contents of various makeup processes stored in makeup table 3c.
“Skin treatment (1)” and “Skin treatment (2)” are makeup processes (skin-beautifying processes) performed on the captured image. For example, the exposure of the image is corrected, and the saturation and brightness are adjusted. Image processing is performed to make the skin white by performing correction processing, or to make wrinkles, rough skin, and spots less noticeable by performing soft focus, etc. In particular, “skin processing (1)” “Skin treatment (2)” is a process for making spots, dullness, etc. inconspicuous. “Eye Processing (1)”, “Eye Processing (2)”, and “Eye Processing (3)” are for deforming the eyes and correcting the saturation and brightness of the eyes. “Process (1)” is a process that opens the eyes, and “Eye process (2)” is a process that reduces the redness of the white eye by correcting the saturation and brightness of the white eye. The eye processing (3) "is processing for sharpening the eyes.

“眉毛処理(1)”、“眉毛処理(2)”は、眉毛を変形したり、眉毛の彩度、明度などを補正したりするもので、特に、“眉毛処理(1)”は、眉毛の無駄毛をなくして、細くする処理であり、“眉毛処理(2)”は、眉毛を太くする処理である。その他、“睫処理”は、睫を長くしてカールさせる処理であり、“口処理(1)”は、口を小さくして口元を綻ばせる処理であり、“口処理(2)”は、口元を引き締める処理である。“歯処理”は、黄ばんだ歯を白くする処理である。なお、メイクアップ処理としては、上述の例に限らず、例えば、上瞼にアイシャドーを付けたり、唇に口紅を付けたりするようにしてもよい。
これらのメイクアップ処理は公知の技術であり、本実施形態ではその公知技術を利用するようにしているため、その具体的な説明については省略するものとする。
“Eyebrow treatment (1)” and “eyebrow treatment (2)” deform eyebrows and correct the saturation and brightness of eyebrows. In particular, “eyebrows treatment (1)” This is a process of thinning out the useless hair, and “eyebrow process (2)” is a process of thickening the eyebrows. In addition, the “wrinkle process” is a process that makes the wrinkle longer and curls, and the “mouth process (1)” is a process that reduces the mouth and breaks the mouth, and “mouth process (2)” This is a process of tightening the mouth. “Tooth treatment” is a process for whitening yellowed teeth. Note that the makeup process is not limited to the above example, and for example, eye shadow may be applied to the upper eyelid or lipstick may be applied to the lips.
These makeup processes are known techniques, and in the present embodiment, the known techniques are used. Therefore, detailed description thereof will be omitted.

次に、第1実施形態における撮像装置(デジタルカメラ)の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図5は、撮像装置(デジタルカメラ)の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図5のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, an operation concept of the imaging apparatus (digital camera) in the first embodiment will be described with reference to flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. FIG. 5 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the entire operation of the imaging apparatus (digital camera). When the flow of FIG. Return to the flow (not shown).

図5は、撮影モード(RECモード)に切り替えられた際に実行開始される動作を示したフローチャートであり、以下、その動作を図7(1)〜(3)に示す表示例を参照しながら説明するものとする。なお、図7は、メイクアップ処理に移行する過程での画像表示例を示した図である。
先ず、制御部1は、撮像部5から取得した撮像画像をタッチ表示部6にライブビュー画像として表示させる動作を開始する(ステップA1)。図7(1)は、人物の顔を含むライブビュー画像の表示例を示している。この状態においてメイクアップモードへの移行を指示するモード切替操作が行われたかを調べたり(ステップA2)、メイクアップモードから抜けるモード切替操作が行われたかを調べたり(ステップA7)、レリーズキーによる撮影指示操作が行われたかを調べたり(ステップA9)、RECモードを終了させるモード切替操作が行われたかを調べたりする(ステップA11)。
FIG. 5 is a flowchart showing an operation that is started when switching to the photographing mode (REC mode). Hereinafter, the operation will be described with reference to display examples shown in FIGS. Shall be explained. FIG. 7 is a diagram showing an image display example in the process of shifting to the makeup process.
First, the control unit 1 starts an operation of displaying the captured image acquired from the imaging unit 5 on the touch display unit 6 as a live view image (step A1). FIG. 7A shows a display example of a live view image including a human face. In this state, it is checked whether the mode switching operation for instructing the transition to the makeup mode has been performed (step A2), whether the mode switching operation to exit from the makeup mode has been performed (step A7), or by the release key It is checked whether a photographing instruction operation has been performed (step A9), or whether a mode switching operation for ending the REC mode has been performed (step A11).

いま、メイクアップモードへの移行を指示するモード切替操作が行われると(ステップA2でYES)、その操作時にライブビュー画像として表示されている撮像画像を取得して画像解析を行い、その画像内の人物の顔領域を検出する顔検出処理(ステップA3)を行った後、この検出した顔を中心として撮像画像を拡大表示させる(ステップA4)。なお、この顔検出処理は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。   If a mode switching operation for instructing the transition to the makeup mode is performed (YES in step A2), a captured image displayed as a live view image at the time of the operation is acquired and image analysis is performed. After performing the face detection process (step A3) for detecting the face area of the person, the captured image is enlarged and displayed with the detected face as the center (step A4). Note that this face detection process is a technique that is generally used in cameras, and in the present embodiment, the well-known technique is used. Therefore, a specific description thereof will be omitted.

図7(2)は、図7(1)に示したライブビュー画像内の人物の顔を拡大表示した場合を示している。この場合、例えば、画面の端に人物の顔が写っているような場合には、その顔が画面の中心に来るように人物の位置を一時的に移動するようにしてもよい。このように人物の顔がタッチ表示部6に拡大表示されている状態において、そのタッチ表示部6へのタッチ操作が行われたかを調べ(ステップA5)、タッチ操作が行われなければ(ステップA5でNO)、上述のステップA7に移るが、タッチ操作が行われたときには(ステップA5でYES)、メイクアップ処理に移る(ステップA6)。すなわち、人物の顔が拡大表示(顔拡大表示)されているタッチ画面上においてタッチ操作が行われたときには、メイクアップ処理の対象がユーザ指定されたものと判断してメイクアップ処理(画像処理)に移る。   FIG. 7B shows a case where the face of the person in the live view image shown in FIG. In this case, for example, when a person's face is shown at the edge of the screen, the position of the person may be temporarily moved so that the face is at the center of the screen. Thus, in the state where the face of the person is enlarged and displayed on the touch display unit 6, it is checked whether the touch operation to the touch display unit 6 has been performed (step A5), and if the touch operation has not been performed (step A5). The process proceeds to step A7 described above, but when a touch operation is performed (YES in step A5), the process proceeds to a makeup process (step A6). That is, when a touch operation is performed on a touch screen on which a person's face is magnified (face magnified display), it is determined that the target of makeup processing has been designated by the user, and makeup processing (image processing) Move on.

図6は、メイクアップ処理(図5のステップA6)を詳述するためのフローチャートである。
先ず、制御部1は、タッチ操作のタッチ位置は人物の顔領域内であるかを調べる(ステップB1)。いま、人物ではない領域がタッチ操作されたり、人物へのタッチ操作であっても顔ではない領域がタッチ操作されたりした場合には(ステップB1でNO)、ステップB2に移り、タッチ操作は継続しているか(タッチ中であるか)を調べる。この場合、タッチ位置が移動しているか否かに拘わらず、タッチ操作が継続していれば(ステップB2でYES)、最初のステップB1に戻る。
FIG. 6 is a flowchart for explaining the makeup process (step A6 in FIG. 5) in detail.
First, the control unit 1 checks whether the touch position of the touch operation is within the face area of the person (step B1). If an area that is not a person is touch-operated, or an area that is not a face is touch-operated even if it is a touch operation on a person (NO in step B1), the process proceeds to step B2, and the touch operation continues. Check whether it is touching (touching). In this case, if the touch operation continues (YES in step B2) regardless of whether the touch position is moved, the process returns to the first step B1.

図7(3)は、図7(2)に示したように人物の顔領域が拡大表示されている状態において、その顔の“肌”の部分、図示の例では、顎上の頬(肌)の部分がユーザの人差し指によってタッチされた場合を例示したもので、図示のようにそのタッチ位置が人物の顔の領域内であれば(ステップB1でYES)、そのときの撮像画像を取得して画像解析を行い、タッチ位置の顔、装飾品、髪型、衣服などを総合的に判断してその人物の属性として性別を判別する(ステップB3)。更に、撮像画像を解析して顔内のどの部位がタッチされたのかを判別する(ステップB4)。   FIG. 7 (3) shows the “skin” portion of the face in the state where the face area of the person is enlarged as shown in FIG. 7 (2), in the example shown, the cheek (skin on the chin) ) Is shown as an example when the user's index finger is touched. If the touch position is within the face area of the person as shown (YES in step B1), the captured image at that time is acquired. The image analysis is performed, and the face at the touch position, the ornament, the hairstyle, the clothes, etc. are comprehensively determined to determine the gender as the attribute of the person (step B3). Further, the captured image is analyzed to determine which part of the face has been touched (step B4).

ステップB4の判別処理は、タッチ操作の継続中に(ステップB2でYES)、所定のタイミング毎に繰り返し実行されるもので、その判別結果に基づいて前回と同じ部位か、つまり、今回のタイミングで判別した部位は、前回のタイミングで判別した部位と同一であるか否かを調べる(ステップB5)。このステップB5は、タッチされた部位がタッチ位置の移動によって変化していないかを調べるもので、例えば、なぞり操作をしている最中に、最初のタッチ位置である肌に対してメイクアップを行っているのにもかかわらず目へ指を移動させてしまったような場合には、不用意に目へのメイクアップ処理を行わないように、前回の部位と異なる場合は(ステップB5でNO)、このタッチ操作に対するメイクアップ処理を無効とするためにステップB2に移る。   The discrimination process in step B4 is repeatedly executed at predetermined timings while the touch operation is continued (YES in step B2). Based on the discrimination result, the discrimination process is the same as the previous time, that is, at the current timing. It is checked whether or not the determined part is the same as the part determined at the previous timing (step B5). This step B5 is for checking whether the touched part has changed due to the movement of the touch position. For example, during the tracing operation, makeup is applied to the skin that is the first touch position. If the finger has been moved to the eye despite being performed, if it is different from the previous part so as not to inadvertently perform makeup processing on the eye (NO in step B5) ), And proceeds to step B2 in order to invalidate the makeup process for this touch operation.

一方、今回の部位が前回の部位と同じであれば(ステップB5でYES)、その部位内のタッチ位置又は状態を判別する処理に移る(ステップB6)。例えば、タッチ位置の部位が“肌”であれば、“肌”を処理対象として、その部位内の状態として、皺、肌荒れ、シミ、くすみなどを判別し、タッチ位置の部位が“目”であれば、“目”を処理対象として、その部位内のタッチ位置として、“目の内側”、“目の外側”を判別する。なお、この判別処理は、一般的に用いられている公知の技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。   On the other hand, if the current part is the same as the previous part (YES in step B5), the process proceeds to a process of determining the touch position or state in the part (step B6). For example, if the part at the touch position is “skin”, “skin” is set as the processing target, and the state within the part is determined as wrinkles, rough skin, spots, dullness, etc., and the part at the touch position is “eyes”. If there is, “inside of eyes” and “outside of eyes” are discriminated as the touch position in the part with “eye” as the processing target. Note that this determination process is a publicly-known technique that is generally used, and in the present embodiment, the known technique is used, and therefore a specific description thereof will be omitted.

次に、今回のタイミングで判別した部位内の位置又は状態と、前回のタイミングで判別した部位内の位置又は状態とを比較して、両者は同一であるかを調べる(ステップB7)。このステップB7は、タッチ位置の移動によって部位内の位置又は状態が変化したか否かを調べるもので、例えば、皺が有る部分から皺が無い部分へ、目の内側から目の外側へ、のように同じ部位内へのタッチであっても、指を移動させた場合には、前回の部位内の位置又は状態と異なるため(ステップB7でNO)、この場合のタッチ操作に対するメイクアップ処理を無効とするためにステップB2に移る。   Next, the position or state in the part determined at the current timing is compared with the position or state in the part determined at the previous timing to check whether they are the same (step B7). This step B7 is to check whether or not the position or state in the part has changed due to the movement of the touch position. For example, from the part with the eyelid to the part without the eyelid, from the inside of the eye to the outside of the eye Thus, even if the touch is in the same part, if the finger is moved, the position or state in the previous part is different (NO in step B7), so the makeup process for the touch operation in this case is performed. In order to make it invalid, it moves to step B2.

一方、前回の部位内のタッチ位置又は状態と同じであれば(ステップB7でYES)、上述の各判別結果(人物の属性、顔の部位、部位内の位置又は状態)に基づいて、メイクアップテーブル3cを参照して該当するメイクアップ処理を検索する(ステップB8)。ここで、該当するメイクアップ処理が無ければ(ステップB9でNO)、例えば、人物の属性が“男性”で、顔の部位が“睫”であれば、該当するメイクアップ処理は存在していないので、ステップB2に移るが、該当するメイクアップ処理が有れば(ステップB9でYES)、例えば、人物の属性が“女性”、顔の部位が“肌”、部位内の状態が“皺、肌荒れ、毛穴など”であれば、該当するメイクアップ処理として“肌処理(1)”が存在しているので、次のステップB10に移り、顔拡大表示上に別ウィンドウを開き、タッチ操作時にユーザの指によって隠れている画像部分を、この別ウィンドウ内に更に拡大表示させると共に、該当するメイクアップ処理の内容を顔拡大表示の所定領域内に文字列メッセージを重畳して案内表示させる。   On the other hand, if it is the same as the touch position or state in the previous part (YES in step B7), makeup is performed based on the above-described determination results (person attributes, face parts, position or state in the part). The corresponding makeup process is searched with reference to the table 3c (step B8). If there is no corresponding makeup process (NO in step B9), for example, if the attribute of the person is “male” and the facial part is “睫”, there is no corresponding makeup process. Therefore, the process proceeds to step B2, but if there is a corresponding makeup process (YES in step B9), for example, the attribute of the person is “female”, the facial part is “skin”, and the state in the part is “皺, If it is “rough skin, pores, etc.”, “Skin treatment (1)” exists as the corresponding makeup process, so the process moves to the next step B10, and another window is opened on the face enlargement display, and the user performs the touch operation. The image part hidden by the finger is further magnified and displayed in this separate window, and the contents of the corresponding makeup process are displayed in guidance by superimposing a character string message on the predetermined area of the face magnified display. .

例えば、図7(3)に示すように、顎上の頬(肌)の部分がユーザの指でタッチされた場合に、その指によって隠されている顎上の頬の画像部分を特定してその画像部分を、顔拡大表示上の別ウィンドウ内に更に拡大表示させると共に、該当するメイクアップ処理“肌処理(1)”の内容として文字列メッセージ“皺、肌荒れなどを目立たなくする”を顔拡大表示の所定領域内に案内表示させる。なお、指の接触領域とその周辺領域を含む画像部分を指に隠れている画像部分としてもよい。また、案内表示する文字列メッセージは、図4に示した処理内容と同じであるが、これに限らず、処理内容を示すアイコンを表示するようにしてもよい。   For example, as shown in FIG. 7 (3), when the cheek (skin) part on the chin is touched with the finger of the user, the image part of the cheek on the chin hidden by the finger is specified. The image portion is further enlarged and displayed in a separate window on the face enlargement display, and the text message “Make the wrinkle, rough skin, etc. inconspicuous” appears as the content of the corresponding makeup process “skin treatment (1)”. Guidance is displayed in a predetermined area of the enlarged display. Note that an image part including the finger contact area and its peripheral area may be an image part hidden behind the finger. The character string message to be displayed for guidance is the same as the processing content shown in FIG. 4, but the present invention is not limited to this, and an icon indicating the processing content may be displayed.

次に、該当するメイクアップ処理の実行に移るが(ステップB11)、そのメイクアップ処理が、例えば、“肌処理(1)”であれば、顔の肌を処理対象として、その画像部分に対して露出補正、彩度や明度の補正、ソフトフォーカス補正などを行うことによって、皺、肌荒れなどを目立ちにくくする画像処理を実行する。また、“目処理(2)”であれば、白目の画像部分に対して彩度、明度などを補正することによって白目の充血を軽減する画像処理を実行する。これによってメイクアップ処理を行うと、それ以降は顔拡大表示に代えてメイクアップ後の画像に切り替え表示させる(ステップB12)。
なお、メイクアップ処理を実行する位置は、タッチ操作のタッチ位置を点として検出して、その点を中心とした所定の範囲としてもよいし、タッチ操作が指により行われる場合は、タッチ位置を面として検出し、その面を範囲としてもよいし、部位に応じて、適宜その範囲を変えてもよい。タッチ操作が“なぞり”の場合は、連続して移動するタッチ位置であるなぞりの軌跡にメイクアップ処理を実行するようにしてもよい。
Next, the corresponding makeup processing is executed (step B11). If the makeup processing is, for example, “skin processing (1)”, the facial skin is processed and the image portion is processed. By performing exposure correction, saturation and lightness correction, soft focus correction, etc., image processing that makes wrinkles and rough skin less noticeable is executed. In the case of “eye processing (2)”, image processing for reducing redness of the white eye is executed by correcting the saturation, lightness, etc. of the image portion of the white eye. When makeup processing is performed in this way, after that, instead of face enlargement display, the image after makeup is switched and displayed (step B12).
The position at which the makeup process is performed may be a predetermined range centered on the point detected by the touch position of the touch operation, or when the touch operation is performed with a finger, the touch position may be It may be detected as a surface, and the surface may be used as a range, or the range may be changed as appropriate depending on the part. When the touch operation is “race”, the makeup process may be executed on the trace locus that is the touch position that moves continuously.

その後、ステップB13に移り、タッチ操作は開放されたか(指が離されたか)を調べるが、タッチ操作の継続中であれば(ステップB13でNO)、タッチ操作が解放されるまで待機状態となるため、その間、ユーザはメイクアップ後の顔拡大表示を確認することができる。いま、タッチ操作の開放された場合には(ステップB13でNO)、上述の別ウィンドウ表示及び案内表示を解除(消去)する処理(ステップB14)を行った後、図6のフローから抜ける。   Thereafter, the process proceeds to step B13 to check whether the touch operation is released (finger is released) or not. If the touch operation is continuing (NO in step B13), the process waits until the touch operation is released. Therefore, during that time, the user can confirm the enlarged face display after makeup. If the touch operation is released (NO in step B13), the process of canceling (erasing) the above-described separate window display and guidance display is performed (step B14), and then the flow of FIG. 6 is exited.

このようなメイクアップ処理(図5のステップA6)が終わると、図5のステップA5に戻り、人物の顔の別の部位へのメイクアップ処理を行うためのタッチ操作が行われたかを調べる。いま、人物の顔の別の部位へのメイクアップ処理を行うためのタッチ操作が行われたときには(ステップA5でYES)、上述の図6のメイクアップ処理を行い、タッチ操作が行われない場合は、上述のステップA7に移る。   When such makeup processing (step A6 in FIG. 5) is completed, the process returns to step A5 in FIG. 5 to check whether a touch operation for performing makeup processing on another part of the person's face has been performed. When a touch operation for performing makeup processing on another part of the person's face is performed (YES in step A5), the above-described makeup processing of FIG. 6 is performed and no touch operation is performed. Moves to step A7 described above.

メイクアップモードから抜ける操作が行われたときには(ステップA7でYES)、上述の顔拡大表示を解除して通常の表示状態に戻す処理(ステップA8)を行った後、上述のステップA2に戻る。また、レリーズキーによる撮影指示操作が行われたときには(ステップA9)、撮像画像を撮影画像に変換して圧縮記録する撮影処理(ステップA10)に移るが、上述のメイクアップ処理(ステップA6)が施された撮像画像に対しては、メイクアップ処理後の撮像画像を撮影画像に変換して圧縮記録するようにしている。その後、上述のステップA2に戻る。また、RECモードを終了させる操作が行われたときには(ステップA11でYES)、図5のフローから抜ける。   When an operation for exiting the makeup mode is performed (YES in step A7), the process of canceling the above-described face enlarged display and returning to the normal display state (step A8) is performed, and then the process returns to step A2. When a shooting instruction operation using the release key is performed (step A9), the process proceeds to a shooting process (step A10) in which the captured image is converted into a shot image and compressed and recorded, but the makeup process (step A6) described above is performed. With respect to the applied captured image, the captured image after the makeup process is converted into a captured image and compressed and recorded. Thereafter, the process returns to step A2. Further, when an operation for ending the REC mode is performed (YES in Step A11), the flow exits from FIG.

以上のように、第1実施形態において制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、その部位に応じて異なる画像処理(メイクアップ処理)をその部位に対して実行するようにしたので、タッチ操作により指定された部位に対してその部位に適したメイクアップ処理を実行することができると共に、顔の画像をよりきめ細かくメイクアップ処理することが可能となり、同じ人物であっても口元が綻んでいる方が良い場合と引き締まっている方が良い場合、顔全体の美顔よりも一部だけを変えたい場合などにも容易に対応することが可能となる。   As described above, in the first embodiment, the control unit 1 is designated by the touch position of the touch operation when the touch operation is performed in a state where an image including a human face is displayed on the touch display unit 6. The person's face part is identified, and different image processing (make-up processing) is executed for that part, so that it is suitable for the part specified by the touch operation. Make it possible to perform makeup processing and make it possible to make more detailed facial images, even if the same person is better when the mouth is broken and when it is better to tighten It is possible to easily cope with a case where only a part of the face is desired to be changed rather than a beautiful face.

制御部1は、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別する他に、その部位内の位置又は状態を更に判別し、その部位とその部位内の位置又は状態に応じて異なるメイクアップ処理をその部位に対して実行するようにしたので、同じ部位がタッチ操作によって指定されたとしてもその部位内の位置又は状態に適したメイクアップ処理を施すことが可能となる。   In addition to determining the part of the person's face specified by the touch position of the touch operation, the control unit 1 further determines the position or state in the part, and according to the part and the position or state in the part Since different makeup processes are executed for the part, even if the same part is designated by the touch operation, it is possible to perform the makeup process suitable for the position or state in the part.

制御部1は、タッチ操作の種類が同一であっても、顔の部位に応じて異なるメイクアップ処理をその部位に対して実行するようにしたので、異なるメイクアップ処理毎にタッチ操作の種類を変える必要はなく、同じ種類のタッチ操作(例えば、シングルタップやなぞり操作)であってタッチ操作によって指定された部位に対してその部位に適したメイクアップ処理を施すことができる。   Since the control unit 1 performs different makeup processing on the face depending on the face part even if the type of the touch operation is the same, the type of touch operation is changed for each different makeup process. There is no need to change, and a makeup process suitable for the part can be performed on the part specified by the touch operation in the same type of touch operation (for example, a single tap or a tracing operation).

制御部1は、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別する他に、その人物の属性を更に判別し、その部位と人物の属性に応じて異なるメイクアップ処理をその部位に対して実行する又はその実行を禁止するようにしたので、タッチ操作により指定された部位に対してその部位及び人物の属性に適したメイクアップ処理を実行又はその実行を禁止することができる。例えば、人物の属性として性別を判別する場合に、女性は美しさを求める傾向が強く、男性はかっこよさを求める傾向が強いため、属性に応じて部位ごとにメイクアップ処理の内容を変えたり、部位によってはメイクアップ処理を禁止したりすることで、属性による嗜好の違いにも容易に対応することが可能となる。   In addition to determining the face part of the person specified by the touch position of the touch operation, the control unit 1 further determines the attribute of the person, and performs different makeup processing according to the attribute of the part and the person. Therefore, the makeup process suitable for the part and person attributes can be executed or prohibited for the part designated by the touch operation. For example, when gender is discriminated as an attribute of a person, women tend to seek beauty and men tend to seek coolness, so the content of makeup processing can be changed for each part depending on the attribute, In some cases, for example, by prohibiting the makeup process, it is possible to easily cope with a difference in preference depending on attributes.

タッチ表示部6に表示されている人物の顔を含む画像内から人物の顔を検出して、この人物の顔を拡大表示するようにしたので、ユーザにあっては人物の顔内の所望する部位をメイクアップの処理対象として指定する場合に、その指定操作を容易に行うことが可能となる。   Since the face of the person is detected from the image including the face of the person displayed on the touch display unit 6 and the face of the person is enlarged, the user wants the desired face within the face of the person. When a part is designated as a makeup processing target, the designation operation can be easily performed.

タッチ表示部6上において、タッチ操作のタッチ位置とは異なる位置に、メイクアップ処理の内容を表示するようにしたので、ユーザにあってはどのようなメイクアップ処理が実行されるかを同一画面上で容易に確認することが可能となる。   Since the contents of the makeup process are displayed on the touch display unit 6 at a position different from the touch position of the touch operation, the same screen shows what makeup process is performed for the user. It can be easily confirmed above.

タッチ表示部6上において、タッチ操作のタッチ位置とは異なる位置に、タッチ操作のタッチ位置を含む顔の部分を表示するようにしたので、タッチ操作時に指などで顔の一部が隠されてしまっても、ユーザにあってはその隠れた画像部分を同一画面上で容易に確認することが可能となる。   Since the face part including the touch position of the touch operation is displayed on the touch display unit 6 at a position different from the touch position of the touch operation, a part of the face is hidden by a finger or the like during the touch operation. Even then, the user can easily confirm the hidden image portion on the same screen.

制御部1は、タッチ操作のタッチ位置が人物の顔領域から外れた他の位置であるか否かを判別し、タッチ位置が人物の顔領域から外れた場合には、メイクアップ処理の実行を禁止するようにしたので、所望する処理対象がタッチ操作によって指定されたことを前提に、メイクアップ処理を実行することが可能となる。   The control unit 1 determines whether or not the touch position of the touch operation is another position outside the person's face area, and executes the makeup process when the touch position is outside the person's face area. Since the prohibition is performed, the makeup process can be executed on the assumption that a desired processing target is designated by a touch operation.

撮像部5により撮像された画像がタッチ表示部6にライブビュー画像として表示されている状態において、この撮像画像(ライブビュー画像)内において、タッチ操作のタッチ位置によって指定される顔の部位を判別するようにしたので、ライブビュー画像に対してメイクアップ処理を施すことができ、画像を記録保存する前に色々なメイクアップを試すことができる。   In a state where the image captured by the image capturing unit 5 is displayed as a live view image on the touch display unit 6, the part of the face specified by the touch position of the touch operation is determined in the captured image (live view image). As a result, makeup processing can be performed on the live view image, and various makeup can be tried before recording and saving the image.

制御部1は、人物の顔を含む画像内において、タッチ操作のタッチ位置によって指定される人物の属性を判別し、その人物の属性に応じて、その人物の顔に対して異なるメイクアップ処理を実行するようにしたので、顔の画像を人物の属性に合わせて、よりきめ細かくメイクアップすることが可能となる。   The control unit 1 determines the attribute of the person specified by the touch position of the touch operation in the image including the face of the person, and performs different makeup processing on the face of the person according to the attribute of the person. Since it is executed, it is possible to make up the face image in more detail according to the attributes of the person.

制御部1は、タッチ操作のタッチ位置によって指定される人物の属性とその顔の部位に応じて、その顔の部位に対して異なる画像処理を実行するようにしたので、人物の属性の他、その人物の顔の部位に適したメイクアップが可能となる。   The control unit 1 executes different image processing on the face part according to the attribute of the person specified by the touch position of the touch operation and the part of the face. Make-up suitable for the part of the person's face becomes possible.

なお、上述した第1実施形態においては、タッチ操作として、“なぞり”、“シングルタップ”を例示したが、それに限らず、“ダブルタップ”や“ピンチアウト”などであってもよい。   In the first embodiment described above, “tracing” and “single tap” are illustrated as touch operations. However, the touch operation is not limited thereto, and may be “double tap”, “pinch out”, or the like.

(第2実施形態)
以下、この発明の第2実施形態について図8及び図9を参照して説明する。
なお、上述した第1実施形態においては、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別すると共に、その部位内の位置又は状態を判別し、その部位内の位置又は状態に応じて異なるメイクアップ処理を実行するようにしたが、この第2実施形態においては、同じ部位が指定された場合でもタッチ操作の種類に応じて異なるメイクアップ処理を実行するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, the part of the person's face specified by the touch position of the touch operation is determined, the position or state in the part is determined, and the position or state in the part is determined. In the second embodiment, different makeup processes are executed depending on the type of touch operation even when the same part is designated. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図8は、第2実施形態におけるメイクアップテーブル3cを説明するための図である。
メイクアップテーブル3cは、人物の顔を構成する各部位に対応付けて各種のメイクアップ処理をアクセスする情報を記憶するもので、「人物の顔の部位」、「人物の属性:女性」、「人物の属性:男性」の各項目を有し、更に、この「人物の属性:女性」、「人物の属性:男性」の項目は「タッチ操作種類:なぞり」、「タッチ操作種類:シングルタップ」の項目に分かれている。なお、メイクアップテーブル3cの内容はユーザ操作によって任意に変更可能となっている。「人物の顔の部位」は、上述した第1実施形態と同様に、メイクアップ処理の対象となる顔の部位を記憶する項目で、図示の例は、“肌”、“目”、“眉毛”、“睫”、“眉”、“口”、“歯”を処理対象(選択候補)として記憶した場合を示している。
FIG. 8 is a diagram for explaining a makeup table 3c according to the second embodiment.
The makeup table 3c stores information for accessing various makeup processes in association with each part constituting a person's face, and includes “person's face part”, “person attribute: female”, “ Each item has “person attribute: male”, and the “person attribute: female” and “person attribute: male” items are “touch operation type: tracing” and “touch operation type: single tap”. It is divided into items. The contents of makeup table 3c can be arbitrarily changed by a user operation. As in the first embodiment described above, “person's face part” is an item for storing the part of the face to be subjected to the makeup process. In the illustrated example, “skin”, “eyes”, “eyebrows” It shows a case where “”, “睫”, “brow”, “mouth”, and “tooth” are stored as processing targets (selection candidates).

「人物の属性:女性」、「人物の属性:男性」は、人物の属性として性別毎及びタッチ操作の種類毎にメイクアップ処理をアクセスする情報を記憶する項目である。図示の例は、「人物の顔の部位」が“肌”の場合に「人物の属性:女性」の「タッチ操作種類:なぞり」に対応して、“肌処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“肌処理(2)”を記憶した場合を示している。「人物の属性:男性」も同様に、「タッチ操作種類:なぞり」に対応して、“肌処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して“肌処理(2)”を記憶した場合を示している。   “Person attribute: female” and “Person attribute: male” are items for storing information for accessing the makeup process for each gender and each type of touch operation as a person attribute. In the example shown in the figure, “skin treatment (1)” is stored corresponding to “touch operation type: tracing” of “person attribute: female” when “part of human face” is “skin”, In this case, “skin treatment (2)” different from the “tracing” touch operation is stored corresponding to the “touch operation type: single tap”. Similarly, “person attribute: male” stores “skin treatment (1)” corresponding to “touch operation type: tracing”, and “skin treatment corresponding to the“ touch operation type: single tap ”. (2) “” is stored.

また、「人物の顔の部位」が“目”の場合に、「人物の属性:女性」の「タッチ操作種類:なぞり」に対応して、“目処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“目処理(2)”を記憶した場合を示している。また、「人物の属性:男性」の「タッチ操作種類:なぞり」に対応して、“目処理(3)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“目処理(2)”を記憶した場合を示している。   Further, when “the face part of the person” is “eyes”, “eye processing (1)” is stored in correspondence with “touch operation type: tracing” of “person attribute: female”. A case where “eye processing (2)” different from the touch operation of “tracing” is stored corresponding to the touch operation type: single tap ”is shown. Also, “eye processing (3)” is stored corresponding to “touch operation type: tracing” of “person attribute: male”, and “race” is corresponding to the “touch operation type: single tap”. The case where “eye processing (2)” different from the touch operation is stored is shown.

なお、「人物の顔の部位」が“眉毛”、“睫”、“口”、“歯”の場合には、第1実施形態と同様に、タッチ操作の種類に拘わらず、「人物の属性:女性」、「人物の属性:男性」別にメイクアップ処理を記憶するようにしている。すなわち、「人物の顔の部位」が“眉毛”の場合に、「人物の属性:女性」に対応して、“眉毛処理(1)”を記憶し、「人物の属性:男性」に対応して、“眉毛処理(2)”を記憶した場合を示している。「人物の顔の部位」が“睫”の場合に、「人物の属性:女性」に対応して、“睫処理”のメイクアップ処理を記憶し、「人物の属性:男性」に対応して、メイクアップ処理を記憶していない場合を示している。「人物の顔の部位」が“口”の場合に、「人物の属性:女性」に対応して、“口処理(1)”を記憶し、「人物の属性:男性」に対応して、“口処理(2)”を記憶している。「人物の顔の部位」が“歯”の場合に、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“歯処理”を記憶している。なお、上述した各種のメイクアップ処理の内容については、第1実施形態の場合と同様である(図4参照)。   When the “part of the person's face” is “eyebrows”, “、”, “mouth”, or “teeth”, the “person attribute” is used regardless of the type of touch operation, as in the first embodiment. : Female "and" person attribute: male "are stored separately. That is, when “the face part of a person” is “eyebrows”, “eyebrow processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is supported. In this example, “eyebrow processing (2)” is stored. When “person's face part” is “睫”, “make-up process” is stored corresponding to “person attribute: female” and “person attribute: male” This shows a case where makeup processing is not stored. When “portion of person's face” is “mouth”, “mouth processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is stored. “Mouth treatment (2)” is stored. When “the face part of a person” is “tooth”, “tooth processing” is stored as a common processing corresponding to “person attribute: female” and “person attribute: male”. The contents of the various makeup processes described above are the same as in the first embodiment (see FIG. 4).

図9は、第2実施形態におけるメイクアップ処理(図5のステップA6)を詳述するためのフローチャートである。なお、第2実施形態においても図5のフローと同様の動作を行うようにしているため、その詳細な説明は省略するものとする。また、第2実施形態においては、図6のステップB6、B7に代えて図9のステップC6、C7とした点が異なり、その他は基本的に同様であるため、以下、第2実施形態の特徴部分を中心に説明するものとする。   FIG. 9 is a flowchart for explaining in detail the makeup process (step A6 in FIG. 5) in the second embodiment. In the second embodiment, the same operation as in the flow of FIG. 5 is performed, and thus detailed description thereof is omitted. In the second embodiment, steps C6 and C7 shown in FIG. 9 are used instead of steps B6 and B7 shown in FIG. 6, and the others are basically the same. The description will focus on the part.

先ず、制御部1は、人物の顔を含む画像が表示されている状態において、そのライブビュー画面へのタッチ操作が行われた際に、そのタッチ位置が人物の顔領域内であれば(ステップC1でYES)、その人物の属性(性別)を判別(ステップC3)すると共に、顔内のどの部位がタッチされたのかを判別する(ステップC4)。そして、今回のタイミングで判別した部位が前回のタイミングで判別した部位と同一であれば(ステップC5でYES)、タッチ操作の種類として、なぞり操作が行われたのか、シングルタップ操作が行われたのかを判別する(ステップC6)。そして、タッチ操作の同一性を判断するために、今回のタイミングで判別したタッチ操作の種類が前回のタイミングで判別したタッチ操作の種類と同一であるかを調べる(ステップC7)。   First, when an image including a person's face is displayed and a touch operation is performed on the live view screen, the control unit 1 determines that the touch position is within the person's face area (step S1). C1 is YES), the attribute (gender) of the person is determined (step C3), and which part of the face is touched is determined (step C4). If the part determined at the current timing is the same as the part determined at the previous timing (YES in step C5), whether the tracing operation is performed or the single tap operation is performed as the type of the touch operation. (Step C6). Then, in order to determine the identity of the touch operation, it is checked whether the type of the touch operation determined at the current timing is the same as the type of the touch operation determined at the previous timing (step C7).

ここで、前回の部位と異なる場合(ステップC5でNO)、又はタッチ操作の種類が前回と異なる場合には(ステップC7でNO)、図6のフローと同様に、タッチ操作が継続中であるかを調べるが(ステップC2)、いま、前回のタッチ操作の種類と同一であれば(ステップC7でYES)、上述の判別結果(人物の属性、顔の部位、タッチ操作の種類)に基づいて、メイクアップテーブル3cを参照して該当するメイクアップ処理を検索する(ステップC8)。ここで、該当するメイクアップ処理が無ければ(ステップC9でNO)、ステップC2に移るが、該当するメイクアップ処理が有れば(ステップC9でYES)、ステップC10に移り、第1実施形態と同様に、タッチ操作時にユーザの指によって隠れている画像部分を別ウィンドウ内に拡大表示させると共に、該当するメイクアップ処理の内容を文字列メッセージで案内表示させる。なお、タッチ操作の種類が“なぞり”の場合には、指の移動に追従して別ウィンドウの表示内容も変化するようになる。   Here, if it is different from the previous part (NO in step C5), or if the type of touch operation is different from the previous part (NO in step C7), the touch operation is continuing as in the flow of FIG. If it is the same as the type of the previous touch operation (YES in step C7), based on the determination result (person attribute, face part, type of touch operation). Then, the corresponding makeup process is searched with reference to the makeup table 3c (step C8). If there is no corresponding makeup process (NO in step C9), the process proceeds to step C2. If there is a corresponding makeup process (YES in step C9), the process proceeds to step C10, which is the same as in the first embodiment. Similarly, the image portion hidden by the user's finger at the time of the touch operation is enlarged and displayed in another window, and the contents of the corresponding makeup processing are guided and displayed by a character string message. When the type of touch operation is “tracing”, the display content of the separate window also changes following the movement of the finger.

以下、第1実施形態と同様に、該当するメイクアップ処理を実行する(ステップC11)と共に、ライブビュー画像に代えてメイクアップ後の画像に切り替え表示させる(ステップC12)。そして、タッチ操作は開放されたか(指が離されたか)を調べ(ステップC13)、タッチ操作の継続中であれば(ステップC13でNO)、タッチ操作が解放されるまで待機状態となるが、タッチ操作が開放されると(ステップC13でNO)、上述の別ウィンドウ表示及び案内表示を解除(消去)する処理(ステップC14)を行った後、図9のフローから抜ける。
なお、タッチ操作が“シングルタップ”の場合にメイクアップ処理を実行する位置は、タッチ位置を基点として連続すると判別される範囲に対して実行する。例えば、目処理(2)の場合は、目の内側の白目部分全体に対して白目の充血を軽減するメイクアップ処理を実行する。また、タッチ操作が“なぞり”の場合は、上述の実施形態1と同様に連続して移動するタッチ位置であるなぞりの軌跡にメイクアップ処理を実行する。
Thereafter, as in the first embodiment, the corresponding makeup process is executed (step C11), and at the same time, the image after the makeup is switched to be displayed instead of the live view image (step C12). Then, it is checked whether the touch operation is released (finger is released) (step C13). If the touch operation is continuing (NO in step C13), the touch operation is in a standby state until it is released. When the touch operation is released (NO in step C13), the process of releasing (erasing) the above-described separate window display and guidance display is performed (step C14), and then the process exits from the flow of FIG.
When the touch operation is “single tap”, the position where the makeup process is executed is executed for a range determined to be continuous with the touch position as a base point. For example, in the case of the eye process (2), a makeup process for reducing white eye hyperemia is performed on the entire white eye portion inside the eye. Further, when the touch operation is “tracing”, makeup processing is executed on the trajectory of the tracing that is the touch position that moves continuously as in the first embodiment.

以上のように、第2実施形態において制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作により指定された顔の部位が同一であっても、タッチ操作の種類が異なる場合にそのタッチ操作の種類に応じて異なる画像処理(メイクアップ処理)をその顔の部位に対して実行するようにしたので、ユーザにあってはタッチ操作の種類を変えるだけで所望するメイクアップを同じ部位に対して得ることができる。   As described above, in the second embodiment, when the touch operation is performed in a state where an image including a human face is displayed on the touch display unit 6, the control unit 1 determines the face specified by the touch operation. Even if the part is the same, if the type of touch operation is different, different image processing (make-up process) is performed on the part of the face depending on the type of touch operation. Thus, the desired makeup can be obtained for the same part only by changing the type of touch operation.

なお、上述した第2実施形態においては、タッチ操作の種類として、“なぞり”、“シングルタップ”を例示したが、それに限らず、マルチタッチ時における指の本数などの違いをタッチ操作の種類としてもよい。   In the second embodiment described above, “race” and “single tap” are exemplified as the types of touch operations. However, the types of touch operations are not limited thereto, and differences in the number of fingers during multi-touch are used as the types of touch operations. Also good.

上述した各実施形態において制御部1は、撮像部5により撮像された画像がタッチ表示部6にライブビュー画像として表示されている状態において、この撮像画像に対してメイクアップ処理を実行するようにしたが、SDカードなどに記録保存されている撮影済み画像(記録画像)に対してメイクアップ処理を実行するようにしてもよい。この場合、記録画像を読み出して再生表示させている状態において、この記録画像内において、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、この顔の部位に応じて異なるメイクアップ処理をその部位に対して実行するようにすればよい。これによって記録保存されている画像に対しても人物の顔を好みに応じてメイクアップすることができる。
この場合、メイクアップ処理された画像は、記録保存されている画像とは別の画像として記録保存されることが望ましい。
In each embodiment described above, the control unit 1 performs a makeup process on the captured image in a state where the image captured by the imaging unit 5 is displayed on the touch display unit 6 as a live view image. However, the makeup process may be executed on a photographed image (recorded image) recorded and stored in an SD card or the like. In this case, in a state in which the recorded image is read and reproduced and displayed, the part of the face of the person specified by the touch position of the touch operation is determined in the recorded image, and different makeup is performed depending on the part of the face. What is necessary is just to make it perform a process with respect to the site | part. This makes it possible to make up a person's face according to his / her preference for images recorded and stored.
In this case, it is desirable that the makeup-processed image is recorded and stored as an image different from the recorded and stored image.

上述した各実施形態においては、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別して、その部位に応じて異なるメイクアップ処理をその部位に対して実行するようにしたが、タッチ操作のタッチ位置が人物の顔領域内であるか否かを判別し、その人物の顔領域内であるか否かに応じてメイクアップ処理をその顔領域に対して実行したり、メイクアップ処理を実行しないようにしたりするようにしてもよい。また、人物の顔領域内であるか否かに応じて異なる画像処理を施すようにしてもよい。これによってタッチ操作のタッチ位置が人物の顔領域内からその領域外に跨ったとしても、顔領域内だけを正確によりきめ細かく画像処理することが可能となる。   In each of the above-described embodiments, the part of the face of the person specified by the touch position of the touch operation is determined, and different makeup processing is performed on the part depending on the part. It is determined whether the touch position of the operation is within the face area of the person, and makeup processing is performed on the face area depending on whether the touch position is within the face area of the person, or the makeup process May not be executed. Further, different image processing may be performed depending on whether or not the face area is within a person. As a result, even if the touch position of the touch operation extends from the inside of the person's face area to the outside of the area, only the inside of the face area can be accurately and finely processed.

上述した各実施形態においては、人物の顔の部位として、“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”を処理対象(選択候補)とした場合を例示したが、その他として、“鼻”、“額”などであってもよく、その部位に対応して、例えば、鼻を高くするメイクアップ処理、額を丸くするメイクアップ処理を実行可能としてもよい。   In each of the embodiments described above, a case where “skin”, “eyes”, “eyebrows”, “睫”, “eyebrows”, and “teeth” are set as processing targets (selection candidates) as human face parts. As an example, “nose”, “forehead”, etc. may be used as other examples, and for example, makeup processing for raising the nose or makeup processing for rounding the forehead can be executed corresponding to the part. Good.

上述した各実施形態においては、「部位内の位置」として、“目の内側”、“目の外側”を例示したが、これに限らず、例えば、部位が“肌”の場合、肌の中の鼻筋を肌内の位置として判別し、人物が女性の場合には鼻筋が消えないように柔らかくし、男性の場合は逆に鼻筋がくっきりするようなメイクアップ処理を行うようにしてもよい。また、「部位内の状態」も任意であり、例えば、部位が目(瞳)の場合、標準サイズに対する目(瞳)の大きさを「部位内の状態」とし、標準サイズよりも小さければ、目(瞳)をその標準サイズよりも大きめにするようにしてもよい。   In each of the embodiments described above, “inside of the eye” and “outside of the eye” are exemplified as “position in the region”, but not limited to this, for example, when the region is “skin”, The nasal muscles may be determined as positions in the skin, and when the person is a woman, the nasal muscles are softened so as not to disappear, and when the person is a male, makeup processing that makes the nasal muscles clear may be performed. In addition, the “state in the part” is also arbitrary. For example, when the part is the eye (pupil), the size of the eye (pupil) with respect to the standard size is set to the “state in the part” and is smaller than the standard size. The eyes (pupils) may be made larger than the standard size.

上述した各実施形態においては、メイクアップ処理を性別に拘わらずに実行するようにしたが、女性に対してのみメイクアップ処理を実行するようにしてもよい。   In each of the above-described embodiments, the makeup process is performed regardless of gender, but the makeup process may be performed only for women.

上述した各実施形態においては、人物の属性として、性別を例示したが、老若を判別し、老年の場合には若く見える方向に、若年の場合には逆に大人びて見える方向にメイクアップ処理を実行するようにしてもよい。また、その他の人物の属性としては、ヘヤースタイルなどであってもよい。   In each of the above-described embodiments, the gender is exemplified as the attribute of the person, but the make-up process is performed in the direction that looks younger in the case of old age, and in the direction that looks younger in the case of young age. You may make it perform. Further, the other person's attribute may be a hair style or the like.

また、上述した各実施形態においては、撮像装置(デジタルカメラ)に適用した場合を示したが、これに限らず、パーソナルコンピュータ、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、スマートフォンなどの携帯電話機、電子ゲーム、音楽プレイヤーなどであってもよく、画像再生専用装置であってもよい。   In each of the above-described embodiments, the case where the present invention is applied to an imaging device (digital camera) has been described. However, the present invention is not limited to this, and a personal computer, a PDA (personal portable information communication device), a tablet terminal device, a smartphone, and the like. Mobile phones, electronic games, music players, etc., or a dedicated image playback device.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他に、前記顔の部位を判別した場合にその部位内の位置又は状態を、更に判別し、
前記画像処理手段は、前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位とその部位内の位置又は状態に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記画像処理手段は、前記タッチ検出手段により検出されるタッチ操作の種類が同一であっても、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項1に記載の画像処理装置において、
前記画像処理手段は、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位が同一であっても、前記タッチ検出手段により検出されるタッチ操作の種類が異なる場合にそのタッチ操作の種類に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項1に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他、その人物の属性を更に判別し、
前記画像処理手段は、前記判別手段により判別された人物の顔領域内であるか否か又は顔の部位と人物の属性に応じて異なる画像処理をその顔領域又は部位に対して実行する又はその実行を禁止する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項1乃至5のいずれか1項に記載の画像処理装置において、
前記表示手段に表示されている人物の顔を含む画像内から人物の顔を検出する顔検出手段と、
前記顔検出手段によって検出される人物の顔を前記表示手段に拡大表示する制御を行う第1の表示制御手段と、
更に備える、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項1乃至6のいずれか1項に記載の画像処理装置において、
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記画像処理手段が実行する画像処理の内容を前記表示手段に表示する制御を行う第2の表示制御手段を、更に備える、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項1乃至7のいずれか1項に記載の画像処理装置において、
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記タッチ検出手段により検出されるタッチ操作のタッチ位置を含む顔の部分を前記表示手段に表示する制御を行う第3の表示制御手段を、更に備える、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項1乃至8のいずれか1項に記載の画像処理装置において、
前記判別手段は、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔から外れた他の位置であるか否かを、更に判別し、
前記画像処理手段は、前記判別手段によってタッチ位置が人物の顔から外れた他の位置であることが判別された場合に、前記画像処理の実行を禁止する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項1乃至9のいずれか1項に記載の画像処理装置において、
人物の顔を撮像する撮像手段を、更に備え、
前記表示手段は、前記撮像手段により撮像された人物の顔を含む画像を表示し、
前記判別手段は、前記表示手段に表示されている撮像画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項1乃至9のいずれか1項に記載の画像処理装置において、
前記表示手段は、記録されている画像を表示し、
前記判別手段は、前記表示手段に表示されている記録画像内において、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出する検出手段と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する判別手段と、
前記判別手段により判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する画像処理手段と、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項12に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の顔の部位を更に判別し、
前記画像処理手段は、前記判別手段により判別される人物の属性とその顔の部位に応じて異なる画像処理をその顔の部位に対して実行する、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する処理と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する処理と、
を含むことを特徴とする。
(請求項15)
請求項15に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する機能と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する機能と、
を実現させるためのプログラムである。
(請求項16)
請求項16に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する処理と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する処理と、
を含むことを特徴とする。
(請求項17)
請求項17に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する機能と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
It is characterized by providing.
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
In addition to determining whether the touch position of the touch operation detected by the touch detection means is within the face area of the person or determining the facial part specified by the touch position, the determining means When the position of the part is determined, the position or state in the part is further determined,
The image processing means performs different image processing on the face area or part depending on whether or not the face area of the person is discriminated by the discrimination means or on the face part and the position or state in the part. Run,
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 1,
Even if the type of touch operation detected by the touch detection unit is the same, the image processing unit differs depending on whether or not it is within the face area of the person determined by the determination unit or the face part Performing image processing on the face region or part;
It is characterized by that.
(Claim 4)
According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect,
Whether the image processing means is in the face area of the person determined by the determination means or the type of touch operation detected by the touch detection means is different even if the face part is the same. Depending on the type of touch operation, different image processing is performed on the face region or part.
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 1,
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person, or determines the part of the face specified by the touch position. Further determine the attributes,
The image processing unit executes or performs different image processing on the face region or part depending on whether or not it is within the face area of the person determined by the determination unit or the face part and the person attribute. Prohibit execution,
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5,
Face detection means for detecting a person's face from within an image including the face of the person displayed on the display means;
First display control means for performing control to enlarge and display the face of the person detected by the face detection means on the display means;
In addition,
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
On the display means, a second display for controlling the display means to display the content of the image processing executed by the image processing means at a position different from the touch position of the touch operation detected by the touch detection means. A control means;
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
On the display means, a face portion including the touch position of the touch operation detected by the touch detection means is displayed on the display means at a position different from the touch position of the touch operation detected by the touch detection means. Further comprising third display control means for performing control,
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to any one of claims 1 to 8,
The determination means further determines whether or not the touch position of the touch operation detected by the detection means is another position outside the human face,
The image processing unit prohibits execution of the image processing when the determining unit determines that the touch position is another position deviating from a person's face;
It is characterized by that.
(Claim 10)
According to a tenth aspect of the present invention, in the image processing apparatus according to any one of the first to ninth aspects,
An image pickup means for picking up a person's face is further provided,
The display means displays an image including a human face imaged by the imaging means,
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the captured image displayed on the display means or is designated by the touch position To identify the part of the face
It is characterized by that.
(Claim 11)
According to an eleventh aspect of the present invention, in the image processing apparatus according to any one of the first to ninth aspects,
The display means displays a recorded image,
The discriminating unit discriminates whether or not the touch position of the touch operation detected by the detecting unit is within the face area of the person in the recorded image displayed on the display unit or is designated by the touch position. To identify the part of the face
It is characterized by that.
(Claim 12)
The invention according to claim 12
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Detecting means for detecting a touch operation on the touch operating means;
A discriminating unit for discriminating an attribute of a person specified by a touch position of a touch operation detected by the detecting unit in an image including a human face displayed on the display unit;
Image processing means for executing different image processing on the face of the person according to the attribute of the person determined by the determination means;
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to claim 12,
The determination means further determines a part of the face of the person specified by the touch position of the touch operation detected by the touch detection means,
The image processing means executes different image processing on the face part depending on the attribute of the person determined by the determination means and the part of the face.
It is characterized by that.
(Claim 14)
The invention according to claim 14
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A process of determining the face part specified by the touch position;
A process of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated, or a part of the face;
It is characterized by including.
(Claim 15)
The invention according to claim 15 is:
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A function to determine the face part specified by the touch position;
A function of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated;
It is a program for realizing.
(Claim 16)
The invention described in claim 16
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
A process of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
Processing to perform different image processing on the face of the person according to the attribute of the person to be determined;
It is characterized by including.
(Claim 17)
The invention described in claim 17
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
A function of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
A function of executing different image processing on the face of the person according to the attribute of the person to be determined;
It is a program for realizing.

1 制御部
2 電源部
3 記憶部
3a プログラムメモリ
3b ワークメモリ
3c メイクアップテーブル
4 操作部
5 撮像部
6 タッチ表示部
6a 表示部
6b タッチ操作部
DESCRIPTION OF SYMBOLS 1 Control part 2 Power supply part 3 Memory | storage part 3a Program memory 3b Work memory 3c Makeup table 4 Operation part 5 Imaging part 6 Touch display part 6a Display part 6b Touch operation part

Claims (17)

人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
An image processing apparatus comprising:
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他に、前記顔の部位を判別した場合にその部位内の位置又は状態を、更に判別し、
前記画像処理手段は、前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位とその部位内の位置又は状態に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする請求項1に記載の画像処理装置。
In addition to determining whether the touch position of the touch operation detected by the touch detection means is within the face area of the person or determining the facial part specified by the touch position, the determining means When the position of the part is determined, the position or state in the part is further determined,
The image processing means performs different image processing on the face area or part depending on whether or not the face area of the person is discriminated by the discrimination means or on the face part and the position or state in the part. Run,
The image processing apparatus according to claim 1.
前記画像処理手段は、前記タッチ検出手段により検出されるタッチ操作の種類が同一であっても、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする請求項1に記載の画像処理装置。
Even if the type of touch operation detected by the touch detection unit is the same, the image processing unit differs depending on whether or not it is within the face area of the person determined by the determination unit or the face part Performing image processing on the face region or part;
The image processing apparatus according to claim 1.
前記画像処理手段は、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位が同一であっても、前記タッチ検出手段により検出されるタッチ操作の種類が異なる場合にそのタッチ操作の種類に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする請求項1に記載の画像処理装置。
Whether the image processing means is in the face area of the person determined by the determination means or the type of touch operation detected by the touch detection means is different even if the face part is the same. Depending on the type of touch operation, different image processing is performed on the face region or part.
The image processing apparatus according to claim 1.
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他、その人物の属性を更に判別し、
前記画像処理手段は、前記判別手段により判別された人物の顔領域内であるか否か又は顔の部位と人物の属性に応じて異なる画像処理をその顔領域又は部位に対して実行する又はその実行を禁止する、
ことを特徴とする請求項1に記載の画像処理装置。
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person, or determines the part of the face specified by the touch position. Further determine the attributes,
The image processing unit executes or performs different image processing on the face region or part depending on whether or not it is within the face area of the person determined by the determination unit or the face part and the person attribute. Prohibit execution,
The image processing apparatus according to claim 1.
前記表示手段に表示されている人物の顔を含む画像内から人物の顔を検出する顔検出手段と、
前記顔検出手段によって検出される人物の顔を前記表示手段に拡大表示する制御を行う第1の表示制御手段と、
更に備える、
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
Face detection means for detecting a person's face from within an image including the face of the person displayed on the display means;
First display control means for performing control to enlarge and display the face of the person detected by the face detection means on the display means;
In addition,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記画像処理手段が実行する画像処理の内容を前記表示手段に表示する制御を行う第2の表示制御手段を、更に備える、
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
On the display means, a second display for controlling the display means to display the content of the image processing executed by the image processing means at a position different from the touch position of the touch operation detected by the touch detection means. A control means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記タッチ検出手段により検出されるタッチ操作のタッチ位置を含む顔の部分を前記表示手段に表示する制御を行う第3の表示制御手段を、更に備える、
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
On the display means, a face portion including the touch position of the touch operation detected by the touch detection means is displayed on the display means at a position different from the touch position of the touch operation detected by the touch detection means. Further comprising third display control means for performing control,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記判別手段は、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔から外れた他の位置であるか否かを、更に判別し、
前記画像処理手段は、前記判別手段によってタッチ位置が人物の顔から外れた他の位置であることが判別された場合に、前記画像処理の実行を禁止する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The determination means further determines whether or not the touch position of the touch operation detected by the detection means is another position outside the human face,
The image processing unit prohibits execution of the image processing when the determining unit determines that the touch position is another position deviating from a person's face;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
人物の顔を撮像する撮像手段を、更に備え、
前記表示手段は、前記撮像手段により撮像された人物の顔を含む画像を表示し、
前記判別手段は、前記表示手段に表示されている撮像画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
An image pickup means for picking up a person's face is further provided,
The display means displays an image including a human face imaged by the imaging means,
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the captured image displayed on the display means or is designated by the touch position To identify the part of the face
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示手段は、記録されている画像を表示し、
前記判別手段は、前記表示手段に表示されている記録画像内において、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The display means displays a recorded image,
The discriminating unit discriminates whether or not the touch position of the touch operation detected by the detecting unit is within the face area of the person in the recorded image displayed on the display unit or is designated by the touch position. To identify the part of the face
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出する検出手段と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する判別手段と、
前記判別手段により判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する画像処理手段と、
ことを特徴とする画像処理装置。
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Detecting means for detecting a touch operation on the touch operating means;
A discriminating unit for discriminating an attribute of a person specified by a touch position of a touch operation detected by the detecting unit in an image including a human face displayed on the display unit;
Image processing means for executing different image processing on the face of the person according to the attribute of the person determined by the determination means;
An image processing apparatus.
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の顔の部位を更に判別し、
前記画像処理手段は、前記判別手段により判別される人物の属性とその顔の部位に応じて異なる画像処理をその顔の部位に対して実行する、
ことを特徴とする請求項12に記載の画像処理装置。
The determination means further determines a part of the face of the person specified by the touch position of the touch operation detected by the touch detection means,
The image processing means executes different image processing on the face part depending on the attribute of the person determined by the determination means and the part of the face.
The image processing apparatus according to claim 12.
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する処理と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A process of determining the face part specified by the touch position;
A process of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated, or a part of the face;
An image processing method comprising:
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する機能と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する機能と、
を実現させるためのプログラム。
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A function to determine the face part specified by the touch position;
A function of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated;
A program to realize
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する処理と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
A process of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
Processing to perform different image processing on the face of the person according to the attribute of the person to be determined;
An image processing method comprising:
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する機能と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する機能と、
を実現させるためのプログラム。
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
A function of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
A function of executing different image processing on the face of the person according to the attribute of the person to be determined;
A program to realize
JP2015117612A 2015-06-10 2015-06-10 Image processing apparatus, image processing method, and program Pending JP2017004258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015117612A JP2017004258A (en) 2015-06-10 2015-06-10 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015117612A JP2017004258A (en) 2015-06-10 2015-06-10 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017004258A true JP2017004258A (en) 2017-01-05
JP2017004258A5 JP2017004258A5 (en) 2018-06-21

Family

ID=57754314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015117612A Pending JP2017004258A (en) 2015-06-10 2015-06-10 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2017004258A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
US11839980B2 (en) 2020-04-21 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244239A (en) * 2009-04-03 2010-10-28 Nikon Corp Image processing apparatus, digital camera, and program
JP2013172166A (en) * 2012-02-17 2013-09-02 Nikon Corp Image processing apparatus, imaging apparatus, and program
WO2015029371A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244239A (en) * 2009-04-03 2010-10-28 Nikon Corp Image processing apparatus, digital camera, and program
JP2013172166A (en) * 2012-02-17 2013-09-02 Nikon Corp Image processing apparatus, imaging apparatus, and program
WO2015029371A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
US11839980B2 (en) 2020-04-21 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor

Similar Documents

Publication Publication Date Title
US11682182B2 (en) Avatar creation user interface
JP7565368B2 (en) DEVICE, METHOD, AND GRAPHICAL USER INTERFACE FOR PROVIDING A COMPUTER-GENER
US12340481B2 (en) Avatar creation user interface
CN113535306B (en) Avatar Creation UI
US10922865B2 (en) Information processing apparatus, information processing method, and program
US20120257000A1 (en) System and method for a grooming mirror in a portable electronic device with a user-facing camera
CN107111861A (en) Image processing apparatus, stylus and image processing method
AU2025205217B2 (en) Avatar navigation, library, editing and creation user interface
CN110263617B (en) Three-dimensional face model obtaining method and device
US20240212272A1 (en) Interactions based on mirror detection and context awareness
JP2017220158A (en) Virtual makeup apparatus, virtual makeup method, and virtual makeup program
TW200946167A (en) Makeup method, makeup simulation device, and makeup simulation program
CN110046020A (en) avatar creation user interface
JP2011203835A (en) Image generating device, image processing method, and program
JP2017147621A (en) Image processing apparatus, image processing method and computer program
JP2017004258A (en) Image processing apparatus, image processing method, and program
CN108470321A (en) U.S. face processing method, device and the storage medium of photo
KR101507410B1 (en) Live make-up photograpy method and apparatus of mobile terminal
CN112749357A (en) Interaction method and device based on shared content and computer equipment
WO2019061203A1 (en) Method and terminal for obtaining change of face value
CN117351105A (en) Image editing method, terminal and electronic device
JP2016139381A (en) Image processing apparatus and image processing method
CN109035136A (en) Image processing method and device, storage medium
JP6969622B2 (en) Shooting game equipment and programs
CN121037705A (en) Screen illumination methods, devices, electronic devices, storage media and software products

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200401