JP2017004258A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2017004258A JP2017004258A JP2015117612A JP2015117612A JP2017004258A JP 2017004258 A JP2017004258 A JP 2017004258A JP 2015117612 A JP2015117612 A JP 2015117612A JP 2015117612 A JP2015117612 A JP 2015117612A JP 2017004258 A JP2017004258 A JP 2017004258A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image processing
- person
- touch
- touch operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 人物の顔画像をよりきめ細かく画像処理できるようにする。【解決手段】 制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、その部位に応じて異なる画像処理(メイクアップ処理)をその部位に対して実行する。例えば、タッチ操作によって指定された部位が肌であれば、その画像部分に対して露出補正、彩度や明度の補正、ソフトフォーカス補正などを行うことによって、皺、肌荒れなどを目立ちにくくする画像処理を実行する。【選択図】 図1PROBLEM TO BE SOLVED: To perform finer image processing of a human face image. When a touch operation is performed in a state where an image including a person's face is displayed on a touch display unit 6, a control unit 1 specifies a part of the person's face specified by the touch position of the touch operation And different image processing (make-up process) is performed on the part depending on the part. For example, if the part specified by the touch operation is skin, image processing that makes wrinkles and rough skin less noticeable by performing exposure correction, saturation and lightness correction, soft focus correction, etc. on the image part Execute. [Selection] Figure 1
Description
本発明は、人物の顔を含む画像を処理する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image including a human face.
最近、デジタルカメラやビデオカメラなどの撮像装置にあっては、自分自身を撮影する機会が増えてきている。特に、女性にあってはより美しく写りたいという要望が強いため、人物撮影時に被写体(例えば、撮影者)の顔を検出し、検出した顔が女性であると判断すると、例えば、露出補正、ソフトフォーカス補正、美肌補正、人物を痩身にみせる補正などの処理を施す撮像装置が、特許文献1のように提案されている。しかしながら、上述の処理は、女性の顔であると判断した場合に全自動で一律決められた強度で補正を行うため、撮影者又は被写体の所望する強度で補正処理を行うことはできないという問題があった。このように撮影者又は被写体が所望する強度で補正処理を行うには、それぞれの補正処理について手動で補正強度を設定して撮影する必要があるため、従来においては、撮影者が複数種の補正処理の補正強度をより簡単に設定することを可能とする技術として、特許文献2が開示されている。
Recently, in an imaging apparatus such as a digital camera or a video camera, an opportunity for photographing itself is increasing. In particular, because there is a strong demand for more beautiful images for women, if the face of a subject (eg, a photographer) is detected when photographing a person and it is determined that the detected face is a woman, for example, exposure compensation, software An image pickup apparatus that performs processing such as focus correction, skin beautification correction, and correction of making a person look slim is proposed as disclosed in
上述した特許文献2は、キー操作によって設定した美顔レベルに応じて、複数種の補正処理の補正強度を設定することができ、人物の顔に対して美顔レベル毎に異なる画像処理を行うことが可能となる。
ところで、美白やパッチリ目を好まない人、皺よりも痣を気にする人などのように美顔の意識は、人物によって異なり、更に、同じ人物であっても口元が綻んでいる方が良い場合と引き締まっている方が良い場合、顔全体の美顔よりも一部だけを変えたい場合などがある。
According to
By the way, people who don't like whitening and patchy eyes, people who care about wrinkles rather than wrinkles, etc. have different facial consciousness depending on the person, and even if the same person is better off your mouth When it is better to tighten, there are cases where it is desired to change only a part of the face rather than the beautiful face.
本発明の課題は、人物の顔画像をよりきめ細かく画像処理できるようにすることである。 An object of the present invention is to enable finer image processing of a human face image.
上述した課題を解決するために本発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする。
In order to solve the above-described problems, the present invention
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
It is characterized by providing.
本発明によれば、人物の顔画像をよりきめ細かく画像処理することができる。 According to the present invention, a person's face image can be processed more finely.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図7を参照して本発明の第1実施形態を説明する。
本実施形態では、タッチ表示部に人物の顔を含む画像が表示されている状態で、タッチ操作された位置にあたる人物の顔の部位に応じたメイクアップ処理を、表示されている人物の顔の部位に対して実行することを特徴としている。タッチ操作は1回タッチして離すシングルタップだけでなく、タッチ状態を維持したままタッチ位置を移動させるなぞり操作の軌跡に応じてメイクアップ処理を実行することできめ細かい画像処理を可能とする。
本実施形態は、画像処理装置として撮像装置に適用した場合を例示したもので、図1は、撮像装置の基本的な構成要素を示したブロック図である。
この撮像装置は、被写体を高精細に撮影可能な撮像機能、記録保存されている撮影済み画像(記録画像)を任意に読み出して再生する画像再生機能などを備えたデジタルカメラである。制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内に格納されている各種のプログラムに応じてこの撮像装置(デジタルカメラ)の全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
In the present embodiment, in a state in which an image including a person's face is displayed on the touch display unit, a makeup process corresponding to the part of the person's face corresponding to the touch-operated position is performed on the face of the displayed person's face. It is characterized by being performed on a part. The touch operation is not limited to a single tap that is touched once and released, but a make-up process can be executed according to the trajectory of a tracing operation that moves the touch position while maintaining the touch state, thereby enabling fine image processing.
This embodiment exemplifies a case where the present invention is applied to an imaging apparatus as an image processing apparatus, and FIG. 1 is a block diagram illustrating basic components of the imaging apparatus.
This imaging apparatus is a digital camera provided with an imaging function capable of photographing a subject with high definition, an image reproduction function for arbitrarily reading and reproducing a captured image (recorded image) recorded and stored. The
記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ3aと、フラグなどのデータを一時記憶するワークメモリ3b、後述するメイクアップテーブル3cなどを有している。なお、記憶部3は、例えば、複数枚の撮影済み画像(保存画像群)を記憶可能なSDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。なお、SDカードなどの可搬型メモリは、高画質の撮影済み画像(記録画像)を複数記憶するメモリである。
The
操作部4は、図示省略したが、各種のハードキーとして、電源オン/オフを行う電源キーと、撮影が可能なモード(RECモード)と撮影済み画像(記録画像)を再生するモード(PLAYモード)を切り替えたり、RECモード内において画像内の人物の顔をメイクアップする処理を実行するメイクアップモードに切り替えたりするモード変更キーと、撮影を指示するレリーズキーなど、各種のハードキーを備えたもので、制御部1は、このハードキーの操作に応じて、例えば、モード変更処理、撮影処理などを実行する。
Although not shown, the
撮像部5は、図示しないが、撮影レンズ5aからの被写体像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮像することが可能なもので、撮影レンズ、撮像素子、各種のセンサ、アナログ処理部、デジタル処理部を有している。この撮像部5によって撮像された画像に対して制御部1は、ホワイトバランス調整、色補間、階調変換、輪郭強調などの通常の画像処理を施すが、特に、上述のメイクアップモードでは、人物の顔を化粧したり、整形したりする画像加工を行うメイクアップ処理(画像処理)を施すようにしている。更に、制御部1は、画像処理した画像に対して画像圧縮処理を施した後、記憶部3の記録メディアに記録保存させる。
Although not shown, the
タッチ表示部6は、画像を表示する高精細液晶、有機EL(Electro Luminescence)などの表示部6aと、透明タッチパネルを有するタッチ操作部6bとを備え、表示部6a上にタッチ操作部6bを積層配置したタッチスクリーンを構成し、各種のソフトウェアキー(アイコン、タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ操作に応じた操作信号を入力したりする。タッチ表示部6の表示画面は、撮像された画像(ライブビュー画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像(記録画像)を再生する再生画面となったりする。
The
タッチ操作部6bは、例えば、静電容量方式、あるいは抵抗皮膜方式を採用したもので、制御部1は、タッチ操作部6bからの接触有無信号(タッチオン信号/タッチオフ信号)に基づいてタッチ操作部6b上の座標位置(接触位置)、接触方向、接触距離、接触時間を検出してタッチ操作の有無及びタッチ操作の種類を判別する。なお、タッチ操作の種類としては、任意の位置を接触してすぐに離す操作の“シングルタップ”、接触し続けて任意の方向に移動する“なぞり”などの操作である。
The touch operation unit 6b employs, for example, an electrostatic capacity method or a resistance film method, and the
なお、上述のタッチ操作とは、タッチ操作部6b上において指やペンで直接タッチする接触操作に限らず、その接触操作に近似する操作として、例えば、指やペンの接近や接近移動による静電容量変化などに応じて指やペンの位置を検出する近接操作を含むことを意味している。つまり、接触操作を検出する接触型タッチパネルに限らず、近接型タッチパネルやデバイスであってもよいが、本実施形態にあっては、タッチ操作として、接触型タッチパネル上での接触操作を例示した場合を示している。 Note that the touch operation described above is not limited to a touch operation that directly touches with the finger or pen on the touch operation unit 6b, but as an operation that approximates the touch operation, for example, an electrostatic due to the approach or movement of the finger or pen This means that it includes a proximity operation that detects the position of a finger or pen in accordance with a change in capacitance. That is, not only a contact-type touch panel that detects a contact operation but also a proximity-type touch panel or a device may be used. However, in the present embodiment, a contact operation on a contact-type touch panel is illustrated as a touch operation. Is shown.
図2は、ライブビュー画像を見ながら撮影者自身を撮影するいわゆる自分撮りが可能な構成の撮像装置(デジタルカメラ)の外観図を示した図である。
撮像装置(デジタルカメラ)を構成する筐体11は、薄型矩形の表示ブロック11aと、この表示ブロック11aの周囲を囲む矩形枠状のフレームブロック11bと、表示ブロック11aとフレームブロック11bとを連結するレンズブロック11cを有する構成で、表示ブロック11aの一端中央部(図示の例では上端中央部)とレンズブロック11cの一端中央部(図示の例では下端中央部)とは、横回転用のヒンジ部(図示省略)を介して横方向に回転可能に取り付けられている。また、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)とレンズブロック11cの両端部(図示の例では左右側部)とは、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられている。
FIG. 2 is an external view of an image pickup apparatus (digital camera) configured to perform so-called self-photographing of a photographer himself / herself while viewing a live view image.
A housing 11 constituting an imaging device (digital camera) connects a thin
表示ブロック11aにはその中央部分にタッチ表示部6が配設され、レンズブロック11cの中央部には撮像部5を構成する撮影レンズ5aが配設されており、上述の横回転用のヒンジ部を介して表示ブロック11aをレンズブロック11cに対して180°回転させることにより、タッチ表示部6及び撮影レンズ5aを同じ方向に向けたり、逆方向に向けたりすることが可能となっている。なお、表示ブロック11aとレンズブロック11cを一体化して本体ブロックとし、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)と本体ブロックの両端部(図示の例では左右側部)とが、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられるようにしてもよい。図2(1)は、自分撮りを可能とするためにタッチ表示部6及び撮影レンズ5aを同じ方向に向けた状態において、表示ブロック11aに対してフレームブロック11bを閉じた状態、図2(2)は、表示ブロック11aに対してフレームブロック11bを開いた状態を示している。
The
図3は、メイクアップテーブル3cを説明するための図である。
メイクアップテーブル3cは、画像内の人物の顔に対するメイクアップ処理(化粧したり、整形したりする画像処理)時に使用されるテーブルであり、人物の顔を構成する各部位に対応付けて各種のメイクアップ処理をアクセスする情報を記憶する構成となっている。メイクアップテーブル3cは、「人物の顔の部位」、「部位内の位置又は状態」、「人物の属性:女性」、「人物の属性:男性」の各項目を有し、その内容はユーザ操作によって任意に変更可能となっている。
FIG. 3 is a diagram for explaining makeup table 3c.
The makeup table 3c is a table used at the time of makeup processing (image processing for applying makeup or shaping) on a person's face in an image, and is associated with each part constituting the person's face. Information for accessing the makeup process is stored. The makeup table 3c has items of “a part of a person's face”, “position or state in the part”, “person attribute: female”, and “person attribute: male”. Can be changed arbitrarily.
「人物の顔の部位」は、メイクアップ処理の対象となる顔の部位を記憶する項目で、図示の例は、“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”を処理対象(選択候補)として記憶した場合である。制御部1は、画像内の人物の顔がタッチ操作された際に、その最初のタッチ位置に該当する顔の部位を判別して、メイクアップテーブル3cを参照し、その「人物の顔の部位」で示される“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”のうち、そのいずれかの部位へのタッチ操作であれば、その部位に対応付けられているメイクアップ処理を実行するようにしている。
The “person's face part” is an item for storing the part of the face to be subjected to the makeup process, and the example shown in the figure is “skin”, “eyes”, “eyebrows”, “睫”, “eyebrows” , “Teeth” is stored as a processing target (selection candidate). When the face of the person in the image is touched, the
「部位内の位置又は状態」は、「人物の顔の部位」で示される各部位に対応付けてその部位内の位置又は状態を記憶する項目であり、図示の例は、「人物の顔の部位」の“肌”に対応して、その部位の状態を示す情報として“皺、肌荒れ、毛穴など”、“シミ、くすみ、痣など”を記憶した場合である。また、“目”に対応して、その部位内の位置を示す情報として“目の内側”、“目の外側”を記憶した場合である。なお、図示の例では、“眉毛”、“睫”、“眉口”、“歯”に対応してその「部位内の位置又は状態」は記憶されていないが、「部位内の位置又は状態」を記憶するようにしてもよい。制御部1は、人物の顔内へのタッチ操作を検出した際に、そのタッチ位置が“肌”であれば、その状態を判別し、“目”であれば、その位置を判別して、メイクアップテーブル3cを参照し、そのいずれかの「部位内の位置又は状態」に該当しているかを判断するようにしている。
The “position or state within the part” is an item that stores the position or state within the part in association with each part indicated by “the part of the person's face”. This corresponds to the case where “wrinkles, rough skin, pores, etc.”, “stains, dullness, wrinkles, etc.” are stored as information indicating the state of the portion corresponding to “skin” of “part”. Further, this corresponds to the case where “inside of eyes” and “outside of eyes” are stored as information indicating the position in the part corresponding to “eyes”. In the example shown in the figure, the “position or state in the part” corresponding to “eyebrows”, “” ”,“ eyebrows ”,“ tooth ”is not stored, but“ position or state in the part ”is not stored. May be stored. When detecting a touch operation in the face of a person, the
「人物の属性:女性」、「人物の属性:男性」は、人物の属性として性別毎にメイクアップ処理をアクセスする情報を記憶する項目で、図示の例は、「人物の顔の部位」が“肌”の場合で、その「部位内の位置又は状態」が“皺、肌荒れ、毛穴など”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通のメイクアップ処理として“肌処理(1)”を記憶し、また、“シミ、くすみ、痣など”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“肌処理(2)”を記憶した場合を示している。また、「人物の顔の部位」が“目”の場合で、「部位内の位置又は状態」が“目の内側”の場合には、「人物の属性:女性」に対応して、“目処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“目処理(3)”を記憶した場合を示している。また、“目の外側”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“目処理(2)”を記憶した場合を示している。 “Person attribute: female” and “Person attribute: male” are items for storing information for accessing makeup processing for each gender as a person attribute. In the illustrated example, “person's face part” is In the case of “skin”, when the “position or state in the part” is “wrinkle, rough skin, pores, etc.”, corresponding to “person attribute: female”, “person attribute: male” “Skin treatment (1)” is stored as a common makeup process, and “stain, dullness, wrinkle, etc.” corresponds to “person attribute: female” and “person attribute: male”. In this example, “skin treatment (2)” is stored as a common process. In addition, when the “part of the human face” is “eyes” and the “position or state within the part” is “inside of the eyes”, the “eye attribute: female” corresponds to the “eyes”. Process (1) ”is stored, and“ eye process (3) ”is stored as another process different from that for female corresponding to“ person attribute: male ”. In the case of “outside of eyes”, “eye processing (2)” is stored as a common process corresponding to “person attribute: female” and “person attribute: male”. Yes.
更に、「人物の顔の部位」が“眉毛”の場合には、「人物の属性:女性」に対応して、“眉毛処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“眉毛処理(2)”を記憶した場合を示している。また、「人物の顔の部位」が“睫”の場合には、「人物の属性:女性」に対応して、“睫処理”のメイクアップ処理を記憶し、「人物の属性:男性」に対応して、メイクアップ処理を記憶していない場合を示している。「人物の顔の部位」が“口”の場合には、「人物の属性:女性」に対応して、“口処理(1)”を記憶し、「人物の属性:男性」に対応して、女性とは異なる他の処理として“口処理(2)”を記憶した場合を示している。「人物の顔の部位」が“歯”の場合には、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“歯処理”を記憶した場合を示している。 Furthermore, when “the face part of the person” is “eyebrow”, “eyebrow processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is supported. In this example, “eyebrow process (2)” is stored as another process different from that for a woman. If the “person's face part” is “睫”, the makeup process of “睫 treatment” is stored in correspondence with “person attribute: female”, and “person attribute: male” is stored. Correspondingly, a case where makeup processing is not stored is shown. When “portion of person's face” is “mouth”, “mouth processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is stored. In this example, “mouth processing (2)” is stored as another processing different from that for a woman. In the case where “person's face part” is “tooth”, “tooth treatment” is stored as a common process corresponding to “person attribute: female” and “person attribute: male”. ing.
制御部1は、人物の顔を含むライブビュー画像がタッチ表示部6に表示されている状態において、この顔内の所定の部位がタッチ操作された場合に、そのタッチ位置に該当する人物の属性とその顔の部位を判別すると共に、その部位内へのタッチ位置又は状態を判別し、その判別結果(部位、部位内へのタッチ位置又は状態)を基にメイクアップテーブル3cを検索することによって該当するメイクアップ処理を特定し、このメイクアップ処理をその部位に対して実行するようにしている。
In a state where a live view image including a person's face is displayed on the
図4は、メイクアップテーブル3cに記憶されている各種のメイクアップ処理の内容を具体的に説明するための図である。
“肌処理(1)”、“肌処理(2)”は、撮像画像に対して施されるメイクアップ処理(美肌処理)であり、例えば、画像の露出を補正したり、彩度、明度を補正する処理を行うことによって肌を白くしたり、ソフトフォーカスなどを行うことによって皺、肌荒れ、シミが目立ちにくくしたりするように画像加工を施すもので、特に、“肌処理(1)”は、皺、肌荒れなどを目立たなくする処理であるのに対し、“肌処理(2)”は、シミ、くすみなどを目立たなくする処理である。“目処理(1)”、“目処理(2)”、“目処理(3)”は、目を変形したり、目の彩度、明度などを補正したりするもので、特に、“目処理(1)”は、目をパッチリと開かせる処理であり、“目処理(2)”は、白目の彩度、明度などを補正することにより、白目の充血を軽減する処理であり、“目処理(3)”は、目つきを鋭くする処理である。
FIG. 4 is a diagram for specifically explaining the contents of various makeup processes stored in makeup table 3c.
“Skin treatment (1)” and “Skin treatment (2)” are makeup processes (skin-beautifying processes) performed on the captured image. For example, the exposure of the image is corrected, and the saturation and brightness are adjusted. Image processing is performed to make the skin white by performing correction processing, or to make wrinkles, rough skin, and spots less noticeable by performing soft focus, etc. In particular, “skin processing (1)” “Skin treatment (2)” is a process for making spots, dullness, etc. inconspicuous. “Eye Processing (1)”, “Eye Processing (2)”, and “Eye Processing (3)” are for deforming the eyes and correcting the saturation and brightness of the eyes. “Process (1)” is a process that opens the eyes, and “Eye process (2)” is a process that reduces the redness of the white eye by correcting the saturation and brightness of the white eye. The eye processing (3) "is processing for sharpening the eyes.
“眉毛処理(1)”、“眉毛処理(2)”は、眉毛を変形したり、眉毛の彩度、明度などを補正したりするもので、特に、“眉毛処理(1)”は、眉毛の無駄毛をなくして、細くする処理であり、“眉毛処理(2)”は、眉毛を太くする処理である。その他、“睫処理”は、睫を長くしてカールさせる処理であり、“口処理(1)”は、口を小さくして口元を綻ばせる処理であり、“口処理(2)”は、口元を引き締める処理である。“歯処理”は、黄ばんだ歯を白くする処理である。なお、メイクアップ処理としては、上述の例に限らず、例えば、上瞼にアイシャドーを付けたり、唇に口紅を付けたりするようにしてもよい。
これらのメイクアップ処理は公知の技術であり、本実施形態ではその公知技術を利用するようにしているため、その具体的な説明については省略するものとする。
“Eyebrow treatment (1)” and “eyebrow treatment (2)” deform eyebrows and correct the saturation and brightness of eyebrows. In particular, “eyebrows treatment (1)” This is a process of thinning out the useless hair, and “eyebrow process (2)” is a process of thickening the eyebrows. In addition, the “wrinkle process” is a process that makes the wrinkle longer and curls, and the “mouth process (1)” is a process that reduces the mouth and breaks the mouth, and “mouth process (2)” This is a process of tightening the mouth. “Tooth treatment” is a process for whitening yellowed teeth. Note that the makeup process is not limited to the above example, and for example, eye shadow may be applied to the upper eyelid or lipstick may be applied to the lips.
These makeup processes are known techniques, and in the present embodiment, the known techniques are used. Therefore, detailed description thereof will be omitted.
次に、第1実施形態における撮像装置(デジタルカメラ)の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図5は、撮像装置(デジタルカメラ)の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図5のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。 Next, an operation concept of the imaging apparatus (digital camera) in the first embodiment will be described with reference to flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. FIG. 5 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the entire operation of the imaging apparatus (digital camera). When the flow of FIG. Return to the flow (not shown).
図5は、撮影モード(RECモード)に切り替えられた際に実行開始される動作を示したフローチャートであり、以下、その動作を図7(1)〜(3)に示す表示例を参照しながら説明するものとする。なお、図7は、メイクアップ処理に移行する過程での画像表示例を示した図である。
先ず、制御部1は、撮像部5から取得した撮像画像をタッチ表示部6にライブビュー画像として表示させる動作を開始する(ステップA1)。図7(1)は、人物の顔を含むライブビュー画像の表示例を示している。この状態においてメイクアップモードへの移行を指示するモード切替操作が行われたかを調べたり(ステップA2)、メイクアップモードから抜けるモード切替操作が行われたかを調べたり(ステップA7)、レリーズキーによる撮影指示操作が行われたかを調べたり(ステップA9)、RECモードを終了させるモード切替操作が行われたかを調べたりする(ステップA11)。
FIG. 5 is a flowchart showing an operation that is started when switching to the photographing mode (REC mode). Hereinafter, the operation will be described with reference to display examples shown in FIGS. Shall be explained. FIG. 7 is a diagram showing an image display example in the process of shifting to the makeup process.
First, the
いま、メイクアップモードへの移行を指示するモード切替操作が行われると(ステップA2でYES)、その操作時にライブビュー画像として表示されている撮像画像を取得して画像解析を行い、その画像内の人物の顔領域を検出する顔検出処理(ステップA3)を行った後、この検出した顔を中心として撮像画像を拡大表示させる(ステップA4)。なお、この顔検出処理は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。 If a mode switching operation for instructing the transition to the makeup mode is performed (YES in step A2), a captured image displayed as a live view image at the time of the operation is acquired and image analysis is performed. After performing the face detection process (step A3) for detecting the face area of the person, the captured image is enlarged and displayed with the detected face as the center (step A4). Note that this face detection process is a technique that is generally used in cameras, and in the present embodiment, the well-known technique is used. Therefore, a specific description thereof will be omitted.
図7(2)は、図7(1)に示したライブビュー画像内の人物の顔を拡大表示した場合を示している。この場合、例えば、画面の端に人物の顔が写っているような場合には、その顔が画面の中心に来るように人物の位置を一時的に移動するようにしてもよい。このように人物の顔がタッチ表示部6に拡大表示されている状態において、そのタッチ表示部6へのタッチ操作が行われたかを調べ(ステップA5)、タッチ操作が行われなければ(ステップA5でNO)、上述のステップA7に移るが、タッチ操作が行われたときには(ステップA5でYES)、メイクアップ処理に移る(ステップA6)。すなわち、人物の顔が拡大表示(顔拡大表示)されているタッチ画面上においてタッチ操作が行われたときには、メイクアップ処理の対象がユーザ指定されたものと判断してメイクアップ処理(画像処理)に移る。
FIG. 7B shows a case where the face of the person in the live view image shown in FIG. In this case, for example, when a person's face is shown at the edge of the screen, the position of the person may be temporarily moved so that the face is at the center of the screen. Thus, in the state where the face of the person is enlarged and displayed on the
図6は、メイクアップ処理(図5のステップA6)を詳述するためのフローチャートである。
先ず、制御部1は、タッチ操作のタッチ位置は人物の顔領域内であるかを調べる(ステップB1)。いま、人物ではない領域がタッチ操作されたり、人物へのタッチ操作であっても顔ではない領域がタッチ操作されたりした場合には(ステップB1でNO)、ステップB2に移り、タッチ操作は継続しているか(タッチ中であるか)を調べる。この場合、タッチ位置が移動しているか否かに拘わらず、タッチ操作が継続していれば(ステップB2でYES)、最初のステップB1に戻る。
FIG. 6 is a flowchart for explaining the makeup process (step A6 in FIG. 5) in detail.
First, the
図7(3)は、図7(2)に示したように人物の顔領域が拡大表示されている状態において、その顔の“肌”の部分、図示の例では、顎上の頬(肌)の部分がユーザの人差し指によってタッチされた場合を例示したもので、図示のようにそのタッチ位置が人物の顔の領域内であれば(ステップB1でYES)、そのときの撮像画像を取得して画像解析を行い、タッチ位置の顔、装飾品、髪型、衣服などを総合的に判断してその人物の属性として性別を判別する(ステップB3)。更に、撮像画像を解析して顔内のどの部位がタッチされたのかを判別する(ステップB4)。 FIG. 7 (3) shows the “skin” portion of the face in the state where the face area of the person is enlarged as shown in FIG. 7 (2), in the example shown, the cheek (skin on the chin) ) Is shown as an example when the user's index finger is touched. If the touch position is within the face area of the person as shown (YES in step B1), the captured image at that time is acquired. The image analysis is performed, and the face at the touch position, the ornament, the hairstyle, the clothes, etc. are comprehensively determined to determine the gender as the attribute of the person (step B3). Further, the captured image is analyzed to determine which part of the face has been touched (step B4).
ステップB4の判別処理は、タッチ操作の継続中に(ステップB2でYES)、所定のタイミング毎に繰り返し実行されるもので、その判別結果に基づいて前回と同じ部位か、つまり、今回のタイミングで判別した部位は、前回のタイミングで判別した部位と同一であるか否かを調べる(ステップB5)。このステップB5は、タッチされた部位がタッチ位置の移動によって変化していないかを調べるもので、例えば、なぞり操作をしている最中に、最初のタッチ位置である肌に対してメイクアップを行っているのにもかかわらず目へ指を移動させてしまったような場合には、不用意に目へのメイクアップ処理を行わないように、前回の部位と異なる場合は(ステップB5でNO)、このタッチ操作に対するメイクアップ処理を無効とするためにステップB2に移る。 The discrimination process in step B4 is repeatedly executed at predetermined timings while the touch operation is continued (YES in step B2). Based on the discrimination result, the discrimination process is the same as the previous time, that is, at the current timing. It is checked whether or not the determined part is the same as the part determined at the previous timing (step B5). This step B5 is for checking whether the touched part has changed due to the movement of the touch position. For example, during the tracing operation, makeup is applied to the skin that is the first touch position. If the finger has been moved to the eye despite being performed, if it is different from the previous part so as not to inadvertently perform makeup processing on the eye (NO in step B5) ), And proceeds to step B2 in order to invalidate the makeup process for this touch operation.
一方、今回の部位が前回の部位と同じであれば(ステップB5でYES)、その部位内のタッチ位置又は状態を判別する処理に移る(ステップB6)。例えば、タッチ位置の部位が“肌”であれば、“肌”を処理対象として、その部位内の状態として、皺、肌荒れ、シミ、くすみなどを判別し、タッチ位置の部位が“目”であれば、“目”を処理対象として、その部位内のタッチ位置として、“目の内側”、“目の外側”を判別する。なお、この判別処理は、一般的に用いられている公知の技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。 On the other hand, if the current part is the same as the previous part (YES in step B5), the process proceeds to a process of determining the touch position or state in the part (step B6). For example, if the part at the touch position is “skin”, “skin” is set as the processing target, and the state within the part is determined as wrinkles, rough skin, spots, dullness, etc., and the part at the touch position is “eyes”. If there is, “inside of eyes” and “outside of eyes” are discriminated as the touch position in the part with “eye” as the processing target. Note that this determination process is a publicly-known technique that is generally used, and in the present embodiment, the known technique is used, and therefore a specific description thereof will be omitted.
次に、今回のタイミングで判別した部位内の位置又は状態と、前回のタイミングで判別した部位内の位置又は状態とを比較して、両者は同一であるかを調べる(ステップB7)。このステップB7は、タッチ位置の移動によって部位内の位置又は状態が変化したか否かを調べるもので、例えば、皺が有る部分から皺が無い部分へ、目の内側から目の外側へ、のように同じ部位内へのタッチであっても、指を移動させた場合には、前回の部位内の位置又は状態と異なるため(ステップB7でNO)、この場合のタッチ操作に対するメイクアップ処理を無効とするためにステップB2に移る。 Next, the position or state in the part determined at the current timing is compared with the position or state in the part determined at the previous timing to check whether they are the same (step B7). This step B7 is to check whether or not the position or state in the part has changed due to the movement of the touch position. For example, from the part with the eyelid to the part without the eyelid, from the inside of the eye to the outside of the eye Thus, even if the touch is in the same part, if the finger is moved, the position or state in the previous part is different (NO in step B7), so the makeup process for the touch operation in this case is performed. In order to make it invalid, it moves to step B2.
一方、前回の部位内のタッチ位置又は状態と同じであれば(ステップB7でYES)、上述の各判別結果(人物の属性、顔の部位、部位内の位置又は状態)に基づいて、メイクアップテーブル3cを参照して該当するメイクアップ処理を検索する(ステップB8)。ここで、該当するメイクアップ処理が無ければ(ステップB9でNO)、例えば、人物の属性が“男性”で、顔の部位が“睫”であれば、該当するメイクアップ処理は存在していないので、ステップB2に移るが、該当するメイクアップ処理が有れば(ステップB9でYES)、例えば、人物の属性が“女性”、顔の部位が“肌”、部位内の状態が“皺、肌荒れ、毛穴など”であれば、該当するメイクアップ処理として“肌処理(1)”が存在しているので、次のステップB10に移り、顔拡大表示上に別ウィンドウを開き、タッチ操作時にユーザの指によって隠れている画像部分を、この別ウィンドウ内に更に拡大表示させると共に、該当するメイクアップ処理の内容を顔拡大表示の所定領域内に文字列メッセージを重畳して案内表示させる。 On the other hand, if it is the same as the touch position or state in the previous part (YES in step B7), makeup is performed based on the above-described determination results (person attributes, face parts, position or state in the part). The corresponding makeup process is searched with reference to the table 3c (step B8). If there is no corresponding makeup process (NO in step B9), for example, if the attribute of the person is “male” and the facial part is “睫”, there is no corresponding makeup process. Therefore, the process proceeds to step B2, but if there is a corresponding makeup process (YES in step B9), for example, the attribute of the person is “female”, the facial part is “skin”, and the state in the part is “皺, If it is “rough skin, pores, etc.”, “Skin treatment (1)” exists as the corresponding makeup process, so the process moves to the next step B10, and another window is opened on the face enlargement display, and the user performs the touch operation. The image part hidden by the finger is further magnified and displayed in this separate window, and the contents of the corresponding makeup process are displayed in guidance by superimposing a character string message on the predetermined area of the face magnified display. .
例えば、図7(3)に示すように、顎上の頬(肌)の部分がユーザの指でタッチされた場合に、その指によって隠されている顎上の頬の画像部分を特定してその画像部分を、顔拡大表示上の別ウィンドウ内に更に拡大表示させると共に、該当するメイクアップ処理“肌処理(1)”の内容として文字列メッセージ“皺、肌荒れなどを目立たなくする”を顔拡大表示の所定領域内に案内表示させる。なお、指の接触領域とその周辺領域を含む画像部分を指に隠れている画像部分としてもよい。また、案内表示する文字列メッセージは、図4に示した処理内容と同じであるが、これに限らず、処理内容を示すアイコンを表示するようにしてもよい。 For example, as shown in FIG. 7 (3), when the cheek (skin) part on the chin is touched with the finger of the user, the image part of the cheek on the chin hidden by the finger is specified. The image portion is further enlarged and displayed in a separate window on the face enlargement display, and the text message “Make the wrinkle, rough skin, etc. inconspicuous” appears as the content of the corresponding makeup process “skin treatment (1)”. Guidance is displayed in a predetermined area of the enlarged display. Note that an image part including the finger contact area and its peripheral area may be an image part hidden behind the finger. The character string message to be displayed for guidance is the same as the processing content shown in FIG. 4, but the present invention is not limited to this, and an icon indicating the processing content may be displayed.
次に、該当するメイクアップ処理の実行に移るが(ステップB11)、そのメイクアップ処理が、例えば、“肌処理(1)”であれば、顔の肌を処理対象として、その画像部分に対して露出補正、彩度や明度の補正、ソフトフォーカス補正などを行うことによって、皺、肌荒れなどを目立ちにくくする画像処理を実行する。また、“目処理(2)”であれば、白目の画像部分に対して彩度、明度などを補正することによって白目の充血を軽減する画像処理を実行する。これによってメイクアップ処理を行うと、それ以降は顔拡大表示に代えてメイクアップ後の画像に切り替え表示させる(ステップB12)。
なお、メイクアップ処理を実行する位置は、タッチ操作のタッチ位置を点として検出して、その点を中心とした所定の範囲としてもよいし、タッチ操作が指により行われる場合は、タッチ位置を面として検出し、その面を範囲としてもよいし、部位に応じて、適宜その範囲を変えてもよい。タッチ操作が“なぞり”の場合は、連続して移動するタッチ位置であるなぞりの軌跡にメイクアップ処理を実行するようにしてもよい。
Next, the corresponding makeup processing is executed (step B11). If the makeup processing is, for example, “skin processing (1)”, the facial skin is processed and the image portion is processed. By performing exposure correction, saturation and lightness correction, soft focus correction, etc., image processing that makes wrinkles and rough skin less noticeable is executed. In the case of “eye processing (2)”, image processing for reducing redness of the white eye is executed by correcting the saturation, lightness, etc. of the image portion of the white eye. When makeup processing is performed in this way, after that, instead of face enlargement display, the image after makeup is switched and displayed (step B12).
The position at which the makeup process is performed may be a predetermined range centered on the point detected by the touch position of the touch operation, or when the touch operation is performed with a finger, the touch position may be It may be detected as a surface, and the surface may be used as a range, or the range may be changed as appropriate depending on the part. When the touch operation is “race”, the makeup process may be executed on the trace locus that is the touch position that moves continuously.
その後、ステップB13に移り、タッチ操作は開放されたか(指が離されたか)を調べるが、タッチ操作の継続中であれば(ステップB13でNO)、タッチ操作が解放されるまで待機状態となるため、その間、ユーザはメイクアップ後の顔拡大表示を確認することができる。いま、タッチ操作の開放された場合には(ステップB13でNO)、上述の別ウィンドウ表示及び案内表示を解除(消去)する処理(ステップB14)を行った後、図6のフローから抜ける。 Thereafter, the process proceeds to step B13 to check whether the touch operation is released (finger is released) or not. If the touch operation is continuing (NO in step B13), the process waits until the touch operation is released. Therefore, during that time, the user can confirm the enlarged face display after makeup. If the touch operation is released (NO in step B13), the process of canceling (erasing) the above-described separate window display and guidance display is performed (step B14), and then the flow of FIG. 6 is exited.
このようなメイクアップ処理(図5のステップA6)が終わると、図5のステップA5に戻り、人物の顔の別の部位へのメイクアップ処理を行うためのタッチ操作が行われたかを調べる。いま、人物の顔の別の部位へのメイクアップ処理を行うためのタッチ操作が行われたときには(ステップA5でYES)、上述の図6のメイクアップ処理を行い、タッチ操作が行われない場合は、上述のステップA7に移る。 When such makeup processing (step A6 in FIG. 5) is completed, the process returns to step A5 in FIG. 5 to check whether a touch operation for performing makeup processing on another part of the person's face has been performed. When a touch operation for performing makeup processing on another part of the person's face is performed (YES in step A5), the above-described makeup processing of FIG. 6 is performed and no touch operation is performed. Moves to step A7 described above.
メイクアップモードから抜ける操作が行われたときには(ステップA7でYES)、上述の顔拡大表示を解除して通常の表示状態に戻す処理(ステップA8)を行った後、上述のステップA2に戻る。また、レリーズキーによる撮影指示操作が行われたときには(ステップA9)、撮像画像を撮影画像に変換して圧縮記録する撮影処理(ステップA10)に移るが、上述のメイクアップ処理(ステップA6)が施された撮像画像に対しては、メイクアップ処理後の撮像画像を撮影画像に変換して圧縮記録するようにしている。その後、上述のステップA2に戻る。また、RECモードを終了させる操作が行われたときには(ステップA11でYES)、図5のフローから抜ける。 When an operation for exiting the makeup mode is performed (YES in step A7), the process of canceling the above-described face enlarged display and returning to the normal display state (step A8) is performed, and then the process returns to step A2. When a shooting instruction operation using the release key is performed (step A9), the process proceeds to a shooting process (step A10) in which the captured image is converted into a shot image and compressed and recorded, but the makeup process (step A6) described above is performed. With respect to the applied captured image, the captured image after the makeup process is converted into a captured image and compressed and recorded. Thereafter, the process returns to step A2. Further, when an operation for ending the REC mode is performed (YES in Step A11), the flow exits from FIG.
以上のように、第1実施形態において制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、その部位に応じて異なる画像処理(メイクアップ処理)をその部位に対して実行するようにしたので、タッチ操作により指定された部位に対してその部位に適したメイクアップ処理を実行することができると共に、顔の画像をよりきめ細かくメイクアップ処理することが可能となり、同じ人物であっても口元が綻んでいる方が良い場合と引き締まっている方が良い場合、顔全体の美顔よりも一部だけを変えたい場合などにも容易に対応することが可能となる。
As described above, in the first embodiment, the
制御部1は、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別する他に、その部位内の位置又は状態を更に判別し、その部位とその部位内の位置又は状態に応じて異なるメイクアップ処理をその部位に対して実行するようにしたので、同じ部位がタッチ操作によって指定されたとしてもその部位内の位置又は状態に適したメイクアップ処理を施すことが可能となる。
In addition to determining the part of the person's face specified by the touch position of the touch operation, the
制御部1は、タッチ操作の種類が同一であっても、顔の部位に応じて異なるメイクアップ処理をその部位に対して実行するようにしたので、異なるメイクアップ処理毎にタッチ操作の種類を変える必要はなく、同じ種類のタッチ操作(例えば、シングルタップやなぞり操作)であってタッチ操作によって指定された部位に対してその部位に適したメイクアップ処理を施すことができる。
Since the
制御部1は、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別する他に、その人物の属性を更に判別し、その部位と人物の属性に応じて異なるメイクアップ処理をその部位に対して実行する又はその実行を禁止するようにしたので、タッチ操作により指定された部位に対してその部位及び人物の属性に適したメイクアップ処理を実行又はその実行を禁止することができる。例えば、人物の属性として性別を判別する場合に、女性は美しさを求める傾向が強く、男性はかっこよさを求める傾向が強いため、属性に応じて部位ごとにメイクアップ処理の内容を変えたり、部位によってはメイクアップ処理を禁止したりすることで、属性による嗜好の違いにも容易に対応することが可能となる。
In addition to determining the face part of the person specified by the touch position of the touch operation, the
タッチ表示部6に表示されている人物の顔を含む画像内から人物の顔を検出して、この人物の顔を拡大表示するようにしたので、ユーザにあっては人物の顔内の所望する部位をメイクアップの処理対象として指定する場合に、その指定操作を容易に行うことが可能となる。
Since the face of the person is detected from the image including the face of the person displayed on the
タッチ表示部6上において、タッチ操作のタッチ位置とは異なる位置に、メイクアップ処理の内容を表示するようにしたので、ユーザにあってはどのようなメイクアップ処理が実行されるかを同一画面上で容易に確認することが可能となる。
Since the contents of the makeup process are displayed on the
タッチ表示部6上において、タッチ操作のタッチ位置とは異なる位置に、タッチ操作のタッチ位置を含む顔の部分を表示するようにしたので、タッチ操作時に指などで顔の一部が隠されてしまっても、ユーザにあってはその隠れた画像部分を同一画面上で容易に確認することが可能となる。
Since the face part including the touch position of the touch operation is displayed on the
制御部1は、タッチ操作のタッチ位置が人物の顔領域から外れた他の位置であるか否かを判別し、タッチ位置が人物の顔領域から外れた場合には、メイクアップ処理の実行を禁止するようにしたので、所望する処理対象がタッチ操作によって指定されたことを前提に、メイクアップ処理を実行することが可能となる。
The
撮像部5により撮像された画像がタッチ表示部6にライブビュー画像として表示されている状態において、この撮像画像(ライブビュー画像)内において、タッチ操作のタッチ位置によって指定される顔の部位を判別するようにしたので、ライブビュー画像に対してメイクアップ処理を施すことができ、画像を記録保存する前に色々なメイクアップを試すことができる。
In a state where the image captured by the
制御部1は、人物の顔を含む画像内において、タッチ操作のタッチ位置によって指定される人物の属性を判別し、その人物の属性に応じて、その人物の顔に対して異なるメイクアップ処理を実行するようにしたので、顔の画像を人物の属性に合わせて、よりきめ細かくメイクアップすることが可能となる。
The
制御部1は、タッチ操作のタッチ位置によって指定される人物の属性とその顔の部位に応じて、その顔の部位に対して異なる画像処理を実行するようにしたので、人物の属性の他、その人物の顔の部位に適したメイクアップが可能となる。
The
なお、上述した第1実施形態においては、タッチ操作として、“なぞり”、“シングルタップ”を例示したが、それに限らず、“ダブルタップ”や“ピンチアウト”などであってもよい。 In the first embodiment described above, “tracing” and “single tap” are illustrated as touch operations. However, the touch operation is not limited thereto, and may be “double tap”, “pinch out”, or the like.
(第2実施形態)
以下、この発明の第2実施形態について図8及び図9を参照して説明する。
なお、上述した第1実施形態においては、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別すると共に、その部位内の位置又は状態を判別し、その部位内の位置又は状態に応じて異なるメイクアップ処理を実行するようにしたが、この第2実施形態においては、同じ部位が指定された場合でもタッチ操作の種類に応じて異なるメイクアップ処理を実行するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, the part of the person's face specified by the touch position of the touch operation is determined, the position or state in the part is determined, and the position or state in the part is determined. In the second embodiment, different makeup processes are executed depending on the type of touch operation even when the same part is designated. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .
図8は、第2実施形態におけるメイクアップテーブル3cを説明するための図である。
メイクアップテーブル3cは、人物の顔を構成する各部位に対応付けて各種のメイクアップ処理をアクセスする情報を記憶するもので、「人物の顔の部位」、「人物の属性:女性」、「人物の属性:男性」の各項目を有し、更に、この「人物の属性:女性」、「人物の属性:男性」の項目は「タッチ操作種類:なぞり」、「タッチ操作種類:シングルタップ」の項目に分かれている。なお、メイクアップテーブル3cの内容はユーザ操作によって任意に変更可能となっている。「人物の顔の部位」は、上述した第1実施形態と同様に、メイクアップ処理の対象となる顔の部位を記憶する項目で、図示の例は、“肌”、“目”、“眉毛”、“睫”、“眉”、“口”、“歯”を処理対象(選択候補)として記憶した場合を示している。
FIG. 8 is a diagram for explaining a makeup table 3c according to the second embodiment.
The makeup table 3c stores information for accessing various makeup processes in association with each part constituting a person's face, and includes “person's face part”, “person attribute: female”, “ Each item has “person attribute: male”, and the “person attribute: female” and “person attribute: male” items are “touch operation type: tracing” and “touch operation type: single tap”. It is divided into items. The contents of makeup table 3c can be arbitrarily changed by a user operation. As in the first embodiment described above, “person's face part” is an item for storing the part of the face to be subjected to the makeup process. In the illustrated example, “skin”, “eyes”, “eyebrows” It shows a case where “”, “睫”, “brow”, “mouth”, and “tooth” are stored as processing targets (selection candidates).
「人物の属性:女性」、「人物の属性:男性」は、人物の属性として性別毎及びタッチ操作の種類毎にメイクアップ処理をアクセスする情報を記憶する項目である。図示の例は、「人物の顔の部位」が“肌”の場合に「人物の属性:女性」の「タッチ操作種類:なぞり」に対応して、“肌処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“肌処理(2)”を記憶した場合を示している。「人物の属性:男性」も同様に、「タッチ操作種類:なぞり」に対応して、“肌処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して“肌処理(2)”を記憶した場合を示している。 “Person attribute: female” and “Person attribute: male” are items for storing information for accessing the makeup process for each gender and each type of touch operation as a person attribute. In the example shown in the figure, “skin treatment (1)” is stored corresponding to “touch operation type: tracing” of “person attribute: female” when “part of human face” is “skin”, In this case, “skin treatment (2)” different from the “tracing” touch operation is stored corresponding to the “touch operation type: single tap”. Similarly, “person attribute: male” stores “skin treatment (1)” corresponding to “touch operation type: tracing”, and “skin treatment corresponding to the“ touch operation type: single tap ”. (2) “” is stored.
また、「人物の顔の部位」が“目”の場合に、「人物の属性:女性」の「タッチ操作種類:なぞり」に対応して、“目処理(1)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“目処理(2)”を記憶した場合を示している。また、「人物の属性:男性」の「タッチ操作種類:なぞり」に対応して、“目処理(3)”を記憶し、その「タッチ操作種類:シングルタップ」に対応して、“なぞり”のタッチ操作とは異なる“目処理(2)”を記憶した場合を示している。 Further, when “the face part of the person” is “eyes”, “eye processing (1)” is stored in correspondence with “touch operation type: tracing” of “person attribute: female”. A case where “eye processing (2)” different from the touch operation of “tracing” is stored corresponding to the touch operation type: single tap ”is shown. Also, “eye processing (3)” is stored corresponding to “touch operation type: tracing” of “person attribute: male”, and “race” is corresponding to the “touch operation type: single tap”. The case where “eye processing (2)” different from the touch operation is stored is shown.
なお、「人物の顔の部位」が“眉毛”、“睫”、“口”、“歯”の場合には、第1実施形態と同様に、タッチ操作の種類に拘わらず、「人物の属性:女性」、「人物の属性:男性」別にメイクアップ処理を記憶するようにしている。すなわち、「人物の顔の部位」が“眉毛”の場合に、「人物の属性:女性」に対応して、“眉毛処理(1)”を記憶し、「人物の属性:男性」に対応して、“眉毛処理(2)”を記憶した場合を示している。「人物の顔の部位」が“睫”の場合に、「人物の属性:女性」に対応して、“睫処理”のメイクアップ処理を記憶し、「人物の属性:男性」に対応して、メイクアップ処理を記憶していない場合を示している。「人物の顔の部位」が“口”の場合に、「人物の属性:女性」に対応して、“口処理(1)”を記憶し、「人物の属性:男性」に対応して、“口処理(2)”を記憶している。「人物の顔の部位」が“歯”の場合に、「人物の属性:女性」、「人物の属性:男性」に対応して、共通の処理として“歯処理”を記憶している。なお、上述した各種のメイクアップ処理の内容については、第1実施形態の場合と同様である(図4参照)。 When the “part of the person's face” is “eyebrows”, “、”, “mouth”, or “teeth”, the “person attribute” is used regardless of the type of touch operation, as in the first embodiment. : Female "and" person attribute: male "are stored separately. That is, when “the face part of a person” is “eyebrows”, “eyebrow processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is supported. In this example, “eyebrow processing (2)” is stored. When “person's face part” is “睫”, “make-up process” is stored corresponding to “person attribute: female” and “person attribute: male” This shows a case where makeup processing is not stored. When “portion of person's face” is “mouth”, “mouth processing (1)” is stored corresponding to “person attribute: female”, and “person attribute: male” is stored. “Mouth treatment (2)” is stored. When “the face part of a person” is “tooth”, “tooth processing” is stored as a common processing corresponding to “person attribute: female” and “person attribute: male”. The contents of the various makeup processes described above are the same as in the first embodiment (see FIG. 4).
図9は、第2実施形態におけるメイクアップ処理(図5のステップA6)を詳述するためのフローチャートである。なお、第2実施形態においても図5のフローと同様の動作を行うようにしているため、その詳細な説明は省略するものとする。また、第2実施形態においては、図6のステップB6、B7に代えて図9のステップC6、C7とした点が異なり、その他は基本的に同様であるため、以下、第2実施形態の特徴部分を中心に説明するものとする。 FIG. 9 is a flowchart for explaining in detail the makeup process (step A6 in FIG. 5) in the second embodiment. In the second embodiment, the same operation as in the flow of FIG. 5 is performed, and thus detailed description thereof is omitted. In the second embodiment, steps C6 and C7 shown in FIG. 9 are used instead of steps B6 and B7 shown in FIG. 6, and the others are basically the same. The description will focus on the part.
先ず、制御部1は、人物の顔を含む画像が表示されている状態において、そのライブビュー画面へのタッチ操作が行われた際に、そのタッチ位置が人物の顔領域内であれば(ステップC1でYES)、その人物の属性(性別)を判別(ステップC3)すると共に、顔内のどの部位がタッチされたのかを判別する(ステップC4)。そして、今回のタイミングで判別した部位が前回のタイミングで判別した部位と同一であれば(ステップC5でYES)、タッチ操作の種類として、なぞり操作が行われたのか、シングルタップ操作が行われたのかを判別する(ステップC6)。そして、タッチ操作の同一性を判断するために、今回のタイミングで判別したタッチ操作の種類が前回のタイミングで判別したタッチ操作の種類と同一であるかを調べる(ステップC7)。
First, when an image including a person's face is displayed and a touch operation is performed on the live view screen, the
ここで、前回の部位と異なる場合(ステップC5でNO)、又はタッチ操作の種類が前回と異なる場合には(ステップC7でNO)、図6のフローと同様に、タッチ操作が継続中であるかを調べるが(ステップC2)、いま、前回のタッチ操作の種類と同一であれば(ステップC7でYES)、上述の判別結果(人物の属性、顔の部位、タッチ操作の種類)に基づいて、メイクアップテーブル3cを参照して該当するメイクアップ処理を検索する(ステップC8)。ここで、該当するメイクアップ処理が無ければ(ステップC9でNO)、ステップC2に移るが、該当するメイクアップ処理が有れば(ステップC9でYES)、ステップC10に移り、第1実施形態と同様に、タッチ操作時にユーザの指によって隠れている画像部分を別ウィンドウ内に拡大表示させると共に、該当するメイクアップ処理の内容を文字列メッセージで案内表示させる。なお、タッチ操作の種類が“なぞり”の場合には、指の移動に追従して別ウィンドウの表示内容も変化するようになる。 Here, if it is different from the previous part (NO in step C5), or if the type of touch operation is different from the previous part (NO in step C7), the touch operation is continuing as in the flow of FIG. If it is the same as the type of the previous touch operation (YES in step C7), based on the determination result (person attribute, face part, type of touch operation). Then, the corresponding makeup process is searched with reference to the makeup table 3c (step C8). If there is no corresponding makeup process (NO in step C9), the process proceeds to step C2. If there is a corresponding makeup process (YES in step C9), the process proceeds to step C10, which is the same as in the first embodiment. Similarly, the image portion hidden by the user's finger at the time of the touch operation is enlarged and displayed in another window, and the contents of the corresponding makeup processing are guided and displayed by a character string message. When the type of touch operation is “tracing”, the display content of the separate window also changes following the movement of the finger.
以下、第1実施形態と同様に、該当するメイクアップ処理を実行する(ステップC11)と共に、ライブビュー画像に代えてメイクアップ後の画像に切り替え表示させる(ステップC12)。そして、タッチ操作は開放されたか(指が離されたか)を調べ(ステップC13)、タッチ操作の継続中であれば(ステップC13でNO)、タッチ操作が解放されるまで待機状態となるが、タッチ操作が開放されると(ステップC13でNO)、上述の別ウィンドウ表示及び案内表示を解除(消去)する処理(ステップC14)を行った後、図9のフローから抜ける。
なお、タッチ操作が“シングルタップ”の場合にメイクアップ処理を実行する位置は、タッチ位置を基点として連続すると判別される範囲に対して実行する。例えば、目処理(2)の場合は、目の内側の白目部分全体に対して白目の充血を軽減するメイクアップ処理を実行する。また、タッチ操作が“なぞり”の場合は、上述の実施形態1と同様に連続して移動するタッチ位置であるなぞりの軌跡にメイクアップ処理を実行する。
Thereafter, as in the first embodiment, the corresponding makeup process is executed (step C11), and at the same time, the image after the makeup is switched to be displayed instead of the live view image (step C12). Then, it is checked whether the touch operation is released (finger is released) (step C13). If the touch operation is continuing (NO in step C13), the touch operation is in a standby state until it is released. When the touch operation is released (NO in step C13), the process of releasing (erasing) the above-described separate window display and guidance display is performed (step C14), and then the process exits from the flow of FIG.
When the touch operation is “single tap”, the position where the makeup process is executed is executed for a range determined to be continuous with the touch position as a base point. For example, in the case of the eye process (2), a makeup process for reducing white eye hyperemia is performed on the entire white eye portion inside the eye. Further, when the touch operation is “tracing”, makeup processing is executed on the trajectory of the tracing that is the touch position that moves continuously as in the first embodiment.
以上のように、第2実施形態において制御部1は、タッチ表示部6に人物の顔を含む画像が表示されている状態においてタッチ操作が行われた場合に、タッチ操作により指定された顔の部位が同一であっても、タッチ操作の種類が異なる場合にそのタッチ操作の種類に応じて異なる画像処理(メイクアップ処理)をその顔の部位に対して実行するようにしたので、ユーザにあってはタッチ操作の種類を変えるだけで所望するメイクアップを同じ部位に対して得ることができる。
As described above, in the second embodiment, when the touch operation is performed in a state where an image including a human face is displayed on the
なお、上述した第2実施形態においては、タッチ操作の種類として、“なぞり”、“シングルタップ”を例示したが、それに限らず、マルチタッチ時における指の本数などの違いをタッチ操作の種類としてもよい。 In the second embodiment described above, “race” and “single tap” are exemplified as the types of touch operations. However, the types of touch operations are not limited thereto, and differences in the number of fingers during multi-touch are used as the types of touch operations. Also good.
上述した各実施形態において制御部1は、撮像部5により撮像された画像がタッチ表示部6にライブビュー画像として表示されている状態において、この撮像画像に対してメイクアップ処理を実行するようにしたが、SDカードなどに記録保存されている撮影済み画像(記録画像)に対してメイクアップ処理を実行するようにしてもよい。この場合、記録画像を読み出して再生表示させている状態において、この記録画像内において、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別し、この顔の部位に応じて異なるメイクアップ処理をその部位に対して実行するようにすればよい。これによって記録保存されている画像に対しても人物の顔を好みに応じてメイクアップすることができる。
この場合、メイクアップ処理された画像は、記録保存されている画像とは別の画像として記録保存されることが望ましい。
In each embodiment described above, the
In this case, it is desirable that the makeup-processed image is recorded and stored as an image different from the recorded and stored image.
上述した各実施形態においては、タッチ操作のタッチ位置によって指定される人物の顔の部位を判別して、その部位に応じて異なるメイクアップ処理をその部位に対して実行するようにしたが、タッチ操作のタッチ位置が人物の顔領域内であるか否かを判別し、その人物の顔領域内であるか否かに応じてメイクアップ処理をその顔領域に対して実行したり、メイクアップ処理を実行しないようにしたりするようにしてもよい。また、人物の顔領域内であるか否かに応じて異なる画像処理を施すようにしてもよい。これによってタッチ操作のタッチ位置が人物の顔領域内からその領域外に跨ったとしても、顔領域内だけを正確によりきめ細かく画像処理することが可能となる。 In each of the above-described embodiments, the part of the face of the person specified by the touch position of the touch operation is determined, and different makeup processing is performed on the part depending on the part. It is determined whether the touch position of the operation is within the face area of the person, and makeup processing is performed on the face area depending on whether the touch position is within the face area of the person, or the makeup process May not be executed. Further, different image processing may be performed depending on whether or not the face area is within a person. As a result, even if the touch position of the touch operation extends from the inside of the person's face area to the outside of the area, only the inside of the face area can be accurately and finely processed.
上述した各実施形態においては、人物の顔の部位として、“肌”、“目”、“眉毛”、“睫”、“眉口”、“歯”を処理対象(選択候補)とした場合を例示したが、その他として、“鼻”、“額”などであってもよく、その部位に対応して、例えば、鼻を高くするメイクアップ処理、額を丸くするメイクアップ処理を実行可能としてもよい。 In each of the embodiments described above, a case where “skin”, “eyes”, “eyebrows”, “睫”, “eyebrows”, and “teeth” are set as processing targets (selection candidates) as human face parts. As an example, “nose”, “forehead”, etc. may be used as other examples, and for example, makeup processing for raising the nose or makeup processing for rounding the forehead can be executed corresponding to the part. Good.
上述した各実施形態においては、「部位内の位置」として、“目の内側”、“目の外側”を例示したが、これに限らず、例えば、部位が“肌”の場合、肌の中の鼻筋を肌内の位置として判別し、人物が女性の場合には鼻筋が消えないように柔らかくし、男性の場合は逆に鼻筋がくっきりするようなメイクアップ処理を行うようにしてもよい。また、「部位内の状態」も任意であり、例えば、部位が目(瞳)の場合、標準サイズに対する目(瞳)の大きさを「部位内の状態」とし、標準サイズよりも小さければ、目(瞳)をその標準サイズよりも大きめにするようにしてもよい。 In each of the embodiments described above, “inside of the eye” and “outside of the eye” are exemplified as “position in the region”, but not limited to this, for example, when the region is “skin”, The nasal muscles may be determined as positions in the skin, and when the person is a woman, the nasal muscles are softened so as not to disappear, and when the person is a male, makeup processing that makes the nasal muscles clear may be performed. In addition, the “state in the part” is also arbitrary. For example, when the part is the eye (pupil), the size of the eye (pupil) with respect to the standard size is set to the “state in the part” and is smaller than the standard size. The eyes (pupils) may be made larger than the standard size.
上述した各実施形態においては、メイクアップ処理を性別に拘わらずに実行するようにしたが、女性に対してのみメイクアップ処理を実行するようにしてもよい。 In each of the above-described embodiments, the makeup process is performed regardless of gender, but the makeup process may be performed only for women.
上述した各実施形態においては、人物の属性として、性別を例示したが、老若を判別し、老年の場合には若く見える方向に、若年の場合には逆に大人びて見える方向にメイクアップ処理を実行するようにしてもよい。また、その他の人物の属性としては、ヘヤースタイルなどであってもよい。 In each of the above-described embodiments, the gender is exemplified as the attribute of the person, but the make-up process is performed in the direction that looks younger in the case of old age, and in the direction that looks younger in the case of young age. You may make it perform. Further, the other person's attribute may be a hair style or the like.
また、上述した各実施形態においては、撮像装置(デジタルカメラ)に適用した場合を示したが、これに限らず、パーソナルコンピュータ、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、スマートフォンなどの携帯電話機、電子ゲーム、音楽プレイヤーなどであってもよく、画像再生専用装置であってもよい。 In each of the above-described embodiments, the case where the present invention is applied to an imaging device (digital camera) has been described. However, the present invention is not limited to this, and a personal computer, a PDA (personal portable information communication device), a tablet terminal device, a smartphone, and the like. Mobile phones, electronic games, music players, etc., or a dedicated image playback device.
また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.
以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他に、前記顔の部位を判別した場合にその部位内の位置又は状態を、更に判別し、
前記画像処理手段は、前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位とその部位内の位置又は状態に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記画像処理手段は、前記タッチ検出手段により検出されるタッチ操作の種類が同一であっても、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項1に記載の画像処理装置において、
前記画像処理手段は、前記判別手段により判別される人物の顔領域内であるか否か又は顔の部位が同一であっても、前記タッチ検出手段により検出されるタッチ操作の種類が異なる場合にそのタッチ操作の種類に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項1に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する他、その人物の属性を更に判別し、
前記画像処理手段は、前記判別手段により判別された人物の顔領域内であるか否か又は顔の部位と人物の属性に応じて異なる画像処理をその顔領域又は部位に対して実行する又はその実行を禁止する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項1乃至5のいずれか1項に記載の画像処理装置において、
前記表示手段に表示されている人物の顔を含む画像内から人物の顔を検出する顔検出手段と、
前記顔検出手段によって検出される人物の顔を前記表示手段に拡大表示する制御を行う第1の表示制御手段と、
更に備える、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項1乃至6のいずれか1項に記載の画像処理装置において、
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記画像処理手段が実行する画像処理の内容を前記表示手段に表示する制御を行う第2の表示制御手段を、更に備える、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項1乃至7のいずれか1項に記載の画像処理装置において、
前記表示手段上において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置とは異なる位置に、前記タッチ検出手段により検出されるタッチ操作のタッチ位置を含む顔の部分を前記表示手段に表示する制御を行う第3の表示制御手段を、更に備える、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項1乃至8のいずれか1項に記載の画像処理装置において、
前記判別手段は、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔から外れた他の位置であるか否かを、更に判別し、
前記画像処理手段は、前記判別手段によってタッチ位置が人物の顔から外れた他の位置であることが判別された場合に、前記画像処理の実行を禁止する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項1乃至9のいずれか1項に記載の画像処理装置において、
人物の顔を撮像する撮像手段を、更に備え、
前記表示手段は、前記撮像手段により撮像された人物の顔を含む画像を表示し、
前記判別手段は、前記表示手段に表示されている撮像画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項1乃至9のいずれか1項に記載の画像処理装置において、
前記表示手段は、記録されている画像を表示し、
前記判別手段は、前記表示手段に表示されている記録画像内において、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置であって、
前記タッチ操作手段上でのタッチ操作を検出する検出手段と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する判別手段と、
前記判別手段により判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する画像処理手段と、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項12に記載の画像処理装置において、
前記判別手段は、前記タッチ検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の顔の部位を更に判別し、
前記画像処理手段は、前記判別手段により判別される人物の属性とその顔の部位に応じて異なる画像処理をその顔の部位に対して実行する、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する処理と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する処理と、
を含むことを特徴とする。
(請求項15)
請求項15に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する機能と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する機能と、
を実現させるためのプログラムである。
(請求項16)
請求項16に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置における画像処理方法であって、
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する処理と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する処理と、
を含むことを特徴とする。
(請求項17)
請求項17に記載の発明は、
人物の顔を含む画像を表示する表示手段とタッチ操作手段とを備える画像処理装置のコンピュータに対して、
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する機能と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
It is characterized by providing.
(Claim 2)
The invention according to
In addition to determining whether the touch position of the touch operation detected by the touch detection means is within the face area of the person or determining the facial part specified by the touch position, the determining means When the position of the part is determined, the position or state in the part is further determined,
The image processing means performs different image processing on the face area or part depending on whether or not the face area of the person is discriminated by the discrimination means or on the face part and the position or state in the part. Run,
It is characterized by that.
(Claim 3)
The invention according to
Even if the type of touch operation detected by the touch detection unit is the same, the image processing unit differs depending on whether or not it is within the face area of the person determined by the determination unit or the face part Performing image processing on the face region or part;
It is characterized by that.
(Claim 4)
According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect,
Whether the image processing means is in the face area of the person determined by the determination means or the type of touch operation detected by the touch detection means is different even if the face part is the same. Depending on the type of touch operation, different image processing is performed on the face region or part.
It is characterized by that.
(Claim 5)
The invention according to
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person, or determines the part of the face specified by the touch position. Further determine the attributes,
The image processing unit executes or performs different image processing on the face region or part depending on whether or not it is within the face area of the person determined by the determination unit or the face part and the person attribute. Prohibit execution,
It is characterized by that.
(Claim 6)
The invention according to
Face detection means for detecting a person's face from within an image including the face of the person displayed on the display means;
First display control means for performing control to enlarge and display the face of the person detected by the face detection means on the display means;
In addition,
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of
On the display means, a second display for controlling the display means to display the content of the image processing executed by the image processing means at a position different from the touch position of the touch operation detected by the touch detection means. A control means;
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to any one of
On the display means, a face portion including the touch position of the touch operation detected by the touch detection means is displayed on the display means at a position different from the touch position of the touch operation detected by the touch detection means. Further comprising third display control means for performing control,
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to any one of
The determination means further determines whether or not the touch position of the touch operation detected by the detection means is another position outside the human face,
The image processing unit prohibits execution of the image processing when the determining unit determines that the touch position is another position deviating from a person's face;
It is characterized by that.
(Claim 10)
According to a tenth aspect of the present invention, in the image processing apparatus according to any one of the first to ninth aspects,
An image pickup means for picking up a person's face is further provided,
The display means displays an image including a human face imaged by the imaging means,
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the captured image displayed on the display means or is designated by the touch position To identify the part of the face
It is characterized by that.
(Claim 11)
According to an eleventh aspect of the present invention, in the image processing apparatus according to any one of the first to ninth aspects,
The display means displays a recorded image,
The discriminating unit discriminates whether or not the touch position of the touch operation detected by the detecting unit is within the face area of the person in the recorded image displayed on the display unit or is designated by the touch position. To identify the part of the face
It is characterized by that.
(Claim 12)
The invention according to claim 12
An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Detecting means for detecting a touch operation on the touch operating means;
A discriminating unit for discriminating an attribute of a person specified by a touch position of a touch operation detected by the detecting unit in an image including a human face displayed on the display unit;
Image processing means for executing different image processing on the face of the person according to the attribute of the person determined by the determination means;
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to claim 12,
The determination means further determines a part of the face of the person specified by the touch position of the touch operation detected by the touch detection means,
The image processing means executes different image processing on the face part depending on the attribute of the person determined by the determination means and the part of the face.
It is characterized by that.
(Claim 14)
The invention according to claim 14
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A process of determining the face part specified by the touch position;
A process of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated, or a part of the face;
It is characterized by including.
(Claim 15)
The invention according to claim 15 is:
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A function to determine the face part specified by the touch position;
A function of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated;
It is a program for realizing.
(Claim 16)
The invention described in claim 16
An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
A process of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
Processing to perform different image processing on the face of the person according to the attribute of the person to be determined;
It is characterized by including.
(Claim 17)
The invention described in claim 17
For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
A function of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
A function of executing different image processing on the face of the person according to the attribute of the person to be determined;
It is a program for realizing.
1 制御部
2 電源部
3 記憶部
3a プログラムメモリ
3b ワークメモリ
3c メイクアップテーブル
4 操作部
5 撮像部
6 タッチ表示部
6a 表示部
6b タッチ操作部
DESCRIPTION OF
Claims (17)
前記タッチ操作手段上でのタッチ操作を検出するタッチ検出手段と、
前記表示手段に表示されている人物の顔を含む画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する判別手段と、
前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する画像処理手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Touch detection means for detecting a touch operation on the touch operation means;
It is determined whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the image including the face of the person displayed on the display means, or designated by the touch position. Discriminating means for discriminating a part of the face
Image processing means for executing, on the face area or part, different image processing depending on whether or not the face part of the person is discriminated by the discrimination means or on the face part;
An image processing apparatus comprising:
前記画像処理手段は、前記判別手段によって判別される人物の顔領域内であるか否か又は顔の部位とその部位内の位置又は状態に応じて異なる画像処理をその顔領域又は部位に対して実行する、
ことを特徴とする請求項1に記載の画像処理装置。 In addition to determining whether the touch position of the touch operation detected by the touch detection means is within the face area of the person or determining the facial part specified by the touch position, the determining means When the position of the part is determined, the position or state in the part is further determined,
The image processing means performs different image processing on the face area or part depending on whether or not the face area of the person is discriminated by the discrimination means or on the face part and the position or state in the part. Run,
The image processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の画像処理装置。 Even if the type of touch operation detected by the touch detection unit is the same, the image processing unit differs depending on whether or not it is within the face area of the person determined by the determination unit or the face part Performing image processing on the face region or part;
The image processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の画像処理装置。 Whether the image processing means is in the face area of the person determined by the determination means or the type of touch operation detected by the touch detection means is different even if the face part is the same. Depending on the type of touch operation, different image processing is performed on the face region or part.
The image processing apparatus according to claim 1.
前記画像処理手段は、前記判別手段により判別された人物の顔領域内であるか否か又は顔の部位と人物の属性に応じて異なる画像処理をその顔領域又は部位に対して実行する又はその実行を禁止する、
ことを特徴とする請求項1に記載の画像処理装置。 The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person, or determines the part of the face specified by the touch position. Further determine the attributes,
The image processing unit executes or performs different image processing on the face region or part depending on whether or not it is within the face area of the person determined by the determination unit or the face part and the person attribute. Prohibit execution,
The image processing apparatus according to claim 1.
前記顔検出手段によって検出される人物の顔を前記表示手段に拡大表示する制御を行う第1の表示制御手段と、
更に備える、
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 Face detection means for detecting a person's face from within an image including the face of the person displayed on the display means;
First display control means for performing control to enlarge and display the face of the person detected by the face detection means on the display means;
In addition,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 On the display means, a second display for controlling the display means to display the content of the image processing executed by the image processing means at a position different from the touch position of the touch operation detected by the touch detection means. A control means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 On the display means, a face portion including the touch position of the touch operation detected by the touch detection means is displayed on the display means at a position different from the touch position of the touch operation detected by the touch detection means. Further comprising third display control means for performing control,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像処理手段は、前記判別手段によってタッチ位置が人物の顔から外れた他の位置であることが判別された場合に、前記画像処理の実行を禁止する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The determination means further determines whether or not the touch position of the touch operation detected by the detection means is another position outside the human face,
The image processing unit prohibits execution of the image processing when the determining unit determines that the touch position is another position deviating from a person's face;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記表示手段は、前記撮像手段により撮像された人物の顔を含む画像を表示し、
前記判別手段は、前記表示手段に表示されている撮像画像内において、前記タッチ検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 An image pickup means for picking up a person's face is further provided,
The display means displays an image including a human face imaged by the imaging means,
The determination means determines whether or not the touch position of the touch operation detected by the touch detection means is within the face area of the person in the captured image displayed on the display means or is designated by the touch position To identify the part of the face
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記判別手段は、前記表示手段に表示されている記録画像内において、前記検出手段により検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The display means displays a recorded image,
The discriminating unit discriminates whether or not the touch position of the touch operation detected by the detecting unit is within the face area of the person in the recorded image displayed on the display unit or is designated by the touch position. To identify the part of the face
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記タッチ操作手段上でのタッチ操作を検出する検出手段と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出手段により検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する判別手段と、
前記判別手段により判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する画像処理手段と、
ことを特徴とする画像処理装置。 An image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Detecting means for detecting a touch operation on the touch operating means;
A discriminating unit for discriminating an attribute of a person specified by a touch position of a touch operation detected by the detecting unit in an image including a human face displayed on the display unit;
Image processing means for executing different image processing on the face of the person according to the attribute of the person determined by the determination means;
An image processing apparatus.
前記画像処理手段は、前記判別手段により判別される人物の属性とその顔の部位に応じて異なる画像処理をその顔の部位に対して実行する、
ことを特徴とする請求項12に記載の画像処理装置。 The determination means further determines a part of the face of the person specified by the touch position of the touch operation detected by the touch detection means,
The image processing means executes different image processing on the face part depending on the attribute of the person determined by the determination means and the part of the face.
The image processing apparatus according to claim 12.
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する処理と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する処理と、
を含むことを特徴とする画像処理方法。 An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A process of determining the face part specified by the touch position;
A process of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated, or a part of the face;
An image processing method comprising:
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置が人物の顔領域内であるか否かを判別又はそのタッチ位置によって指定される顔の部位を判別する機能と、
前記判別される人物の顔領域内であるか否か又は顔の部位に応じて異なる画像処理をその顔領域又は部位に対して実行する機能と、
を実現させるためのプログラム。 For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
In the image including the face of the person displayed on the display means, it is determined whether or not the touch position of the detected touch operation is within the face area of the person in the image including the face of the person. A function to determine the face part specified by the touch position;
A function of executing different image processing on the face region or part depending on whether or not it is within the face region of the person to be discriminated;
A program to realize
前記タッチ操作手段上でのタッチ操作を検出する処理と、
前記表示手段に表示している人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する処理と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する処理と、
を含むことを特徴とする画像処理方法。 An image processing method in an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
Processing for detecting a touch operation on the touch operation means;
A process of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
Processing to perform different image processing on the face of the person according to the attribute of the person to be determined;
An image processing method comprising:
前記タッチ操作手段上でのタッチ操作を検出する機能と、
前記表示手段に表示されている人物の顔を含む画像内において、前記検出されるタッチ操作のタッチ位置によって指定される人物の属性を判別する機能と、
前記判別される人物の属性に応じて異なる画像処理をその人物の顔に対して実行する機能と、
を実現させるためのプログラム。 For a computer of an image processing apparatus comprising display means for displaying an image including a human face and touch operation means,
A function of detecting a touch operation on the touch operation means;
A function of determining an attribute of a person specified by a touch position of the detected touch operation in an image including the face of the person displayed on the display means;
A function of executing different image processing on the face of the person according to the attribute of the person to be determined;
A program to realize
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015117612A JP2017004258A (en) | 2015-06-10 | 2015-06-10 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015117612A JP2017004258A (en) | 2015-06-10 | 2015-06-10 | Image processing apparatus, image processing method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017004258A true JP2017004258A (en) | 2017-01-05 |
| JP2017004258A5 JP2017004258A5 (en) | 2018-06-21 |
Family
ID=57754314
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015117612A Pending JP2017004258A (en) | 2015-06-10 | 2015-06-10 | Image processing apparatus, image processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017004258A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018117289A (en) * | 2017-01-19 | 2018-07-26 | カシオ計算機株式会社 | Image processing device, image processing method, and program |
| US11839980B2 (en) | 2020-04-21 | 2023-12-12 | Canon Kabushiki Kaisha | Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010244239A (en) * | 2009-04-03 | 2010-10-28 | Nikon Corp | Image processing apparatus, digital camera, and program |
| JP2013172166A (en) * | 2012-02-17 | 2013-09-02 | Nikon Corp | Image processing apparatus, imaging apparatus, and program |
| WO2015029371A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance method, and makeup assistance program |
-
2015
- 2015-06-10 JP JP2015117612A patent/JP2017004258A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010244239A (en) * | 2009-04-03 | 2010-10-28 | Nikon Corp | Image processing apparatus, digital camera, and program |
| JP2013172166A (en) * | 2012-02-17 | 2013-09-02 | Nikon Corp | Image processing apparatus, imaging apparatus, and program |
| WO2015029371A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance method, and makeup assistance program |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018117289A (en) * | 2017-01-19 | 2018-07-26 | カシオ計算機株式会社 | Image processing device, image processing method, and program |
| US11839980B2 (en) | 2020-04-21 | 2023-12-12 | Canon Kabushiki Kaisha | Image processing apparatus monitoring target, control method therefor, and storage medium storing control program therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11682182B2 (en) | Avatar creation user interface | |
| JP7565368B2 (en) | DEVICE, METHOD, AND GRAPHICAL USER INTERFACE FOR PROVIDING A COMPUTER-GENER | |
| US12340481B2 (en) | Avatar creation user interface | |
| CN113535306B (en) | Avatar Creation UI | |
| US10922865B2 (en) | Information processing apparatus, information processing method, and program | |
| US20120257000A1 (en) | System and method for a grooming mirror in a portable electronic device with a user-facing camera | |
| CN107111861A (en) | Image processing apparatus, stylus and image processing method | |
| AU2025205217B2 (en) | Avatar navigation, library, editing and creation user interface | |
| CN110263617B (en) | Three-dimensional face model obtaining method and device | |
| US20240212272A1 (en) | Interactions based on mirror detection and context awareness | |
| JP2017220158A (en) | Virtual makeup apparatus, virtual makeup method, and virtual makeup program | |
| TW200946167A (en) | Makeup method, makeup simulation device, and makeup simulation program | |
| CN110046020A (en) | avatar creation user interface | |
| JP2011203835A (en) | Image generating device, image processing method, and program | |
| JP2017147621A (en) | Image processing apparatus, image processing method and computer program | |
| JP2017004258A (en) | Image processing apparatus, image processing method, and program | |
| CN108470321A (en) | U.S. face processing method, device and the storage medium of photo | |
| KR101507410B1 (en) | Live make-up photograpy method and apparatus of mobile terminal | |
| CN112749357A (en) | Interaction method and device based on shared content and computer equipment | |
| WO2019061203A1 (en) | Method and terminal for obtaining change of face value | |
| CN117351105A (en) | Image editing method, terminal and electronic device | |
| JP2016139381A (en) | Image processing apparatus and image processing method | |
| CN109035136A (en) | Image processing method and device, storage medium | |
| JP6969622B2 (en) | Shooting game equipment and programs | |
| CN121037705A (en) | Screen illumination methods, devices, electronic devices, storage media and software products |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180426 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190115 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190312 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190816 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200401 |