[go: up one dir, main page]

JP2012078469A - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP2012078469A
JP2012078469A JP2010222117A JP2010222117A JP2012078469A JP 2012078469 A JP2012078469 A JP 2012078469A JP 2010222117 A JP2010222117 A JP 2010222117A JP 2010222117 A JP2010222117 A JP 2010222117A JP 2012078469 A JP2012078469 A JP 2012078469A
Authority
JP
Japan
Prior art keywords
makeup
image
face
user
display panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010222117A
Other languages
Japanese (ja)
Inventor
Maiko Takano
舞子 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010222117A priority Critical patent/JP2012078469A/en
Publication of JP2012078469A publication Critical patent/JP2012078469A/en
Pending legal-status Critical Current

Links

Landscapes

  • Mirrors, Picture Frames, Photograph Stands, And Related Fastening Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to put on makeup while referring to an image without eye movement.SOLUTION: A state (a) where a foundation virtual makeup image FM and a state (b) where a face F is reflected on a half mirror 31 for a second prescribed time are alternately repeated. In this case, a liquid crystal display panel 32 for displaying the foundation virtual makeup image FM and the half mirror 31 reflecting the face F are laminated within the same display part 3. Consequently, the user does not move his or her eyes when viewing the foundation virtual makeup image FM and viewing the reflected face F, so that the user can put on makeup with a foundation while referring the image without eye movement.

Description

本発明は、メイクアップ(化粧)に使用する画像表示装置及び画像表示方法に関する。   The present invention relates to an image display device and an image display method used for makeup.

従来、メイクアップに使用する装置として、特許文献1記載の装置が提案されている。この装置は、蝶番を介して連結された第1部材と第2部材とで構成されている。第1部材にはカメラとモニタとが配置され、第2部材には鏡が配置されている。そして、カメラによりユーザのメイクアップ前の顔を撮影し、撮影した顔の画像をメイクアップシミュレーション処理して、メイクアップが施された仮想的な顔画像を生成し、モニタに表示する。したがって、ユーザは第1部材のモニタに表示された仮想的なメイクアップ画像を参照しつつ、第2部材の鏡に写る現時点における自己の顔を見ながらメイクアップを行うことができる。   Conventionally, an apparatus described in Patent Document 1 has been proposed as an apparatus used for makeup. This apparatus is composed of a first member and a second member connected via a hinge. A camera and a monitor are disposed on the first member, and a mirror is disposed on the second member. Then, the face before the makeup of the user is photographed by the camera, the photographed face image is subjected to a makeup simulation process, and a virtual face image with makeup is generated and displayed on the monitor. Therefore, the user can make up while referring to the virtual makeup image displayed on the monitor of the first member and looking at his / her own face reflected in the mirror of the second member.

特開2009−39523号公報JP 2009-39523 A

しかしながら、前記従来技術を用いてメイクアップを行う場合、前述のように、ユーザは第1部材のモニタで仮想的なメイクアップ画像と、第2部材の鏡に写る現時点における自己の顔を見比べながらメイクアップを行うことになる。したがって、メイクアップ時には、モニタと鏡との間で視線移動させる必要がある。しかも、メイクアップは、ファンデーション、アイシャドウ、チーク等の複数段階で構成されることから、メイクアップが完了するまでには、多数回に及ぶ視線移動が強いられることとなる。   However, when makeup is performed using the conventional technique, as described above, the user compares the virtual makeup image on the monitor of the first member with his / her own face reflected in the mirror of the second member. I will do make-up. Therefore, it is necessary to move the line of sight between the monitor and the mirror during makeup. In addition, since makeup is composed of a plurality of stages such as foundation, eye shadow, and teak, the line of sight movement is forced many times before the makeup is completed.

このため、メイクアップの完了までに時間を要したり、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してしまい、自己が満足するようなメイクアップ結果が得られない等の不満が生ずるものであった。   For this reason, it takes time to complete the makeup, or the work ends with the makeup remaining incomplete due to the complicated movement of the line of sight. Dissatisfaction such as not being able to occur.

本発明は、このような事情に鑑みなされたものであり、視線移動を伴うことなく画像を参照しつつメイクアップを行うことのできる画像表示装置及び画像表示方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image display apparatus and an image display method capable of performing makeup while referring to an image without accompanying eye movement.

前記課題を解決するため、請求項1記載の発明に係る画像表示装置にあっては、画面に画像を表示する表示パネルと、メイクアップが施されたメイクアップ画像を記憶する記憶回路と、前記記憶回路に記憶されているメイクアップ画像を前記表示パネルの前記画面に表示する表示モードと、前記表示パネルの前記画面に前記メイクアップ画像を表示することなく前記表示パネルの前記画面を鏡面状態にする鏡面モードと、を切り替える表示制御回路と、を備えることを特徴とする。   In order to solve the above-described problem, in the image display device according to the first aspect of the present invention, a display panel that displays an image on a screen, a storage circuit that stores a makeup image on which makeup has been performed, and A display mode in which a makeup image stored in a storage circuit is displayed on the screen of the display panel; and the screen of the display panel is brought into a mirror state without displaying the makeup image on the screen of the display panel. And a display control circuit for switching between the mirror surface modes.

また、請求項2記載の発明に係る画像表示装置にあっては、前記メイクアップ画像は、ユーザの顔画像に画像メイクアップ処理が施された画像であることを特徴とする。   In the image display device according to the second aspect of the present invention, the makeup image is an image obtained by performing an image makeup process on a user's face image.

また、請求項3記載の発明に係る画像表示装置にあっては、前記メイクアップ画像は、ユーザ以外の顔画像に画像メイクアップ処理が施された画像であることを特徴とする。   In the image display device according to the third aspect of the present invention, the makeup image is an image obtained by performing an image makeup process on a face image other than the user.

また、請求項4記載の発明に係る画像表示装置にあっては、前記記憶回路は、メイクアップの段階や部位に応じた種別毎にメイクアップが施された複数種の前記メイクアップ画像を記憶し、前記表示制御回路は、前記表示モードにおいて前記記憶回路に記憶されている複数種の前記メイクアップ画像を表示させることを特徴とする。   In the image display device according to the fourth aspect of the present invention, the storage circuit stores a plurality of types of the makeup images applied for each type according to the stage and part of the makeup. The display control circuit displays a plurality of types of makeup images stored in the storage circuit in the display mode.

また、請求項5記載の発明に係る画像表示装置にあっては、前記表示制御回路により切り換えられる表示モードと鏡面モードとの時間間隔が異なることを特徴とする。   In the image display device according to the fifth aspect of the present invention, the time interval between the display mode switched by the display control circuit and the specular mode is different.

また、請求項6記載の発明に係る画像表示装置にあっては、前記鏡面モードの時間が前記表示モードの時間よりも長いことを特徴とする。   In the image display device according to the sixth aspect of the invention, the time in the specular mode is longer than the time in the display mode.

また、請求項7記載の発明に係る画像表示方法にあっては、記憶回路に記憶されているメイクアップ画像を表示パネルの画面に表示する表示ステップと、前記表示ステップの前、後の少なくとも一方に、前記メイクアップ画像を表示することなく前記表示パネルの前記画面を鏡面状態にする鏡面ステップと、を含むことを特徴とする。   In the image display method according to the seventh aspect of the present invention, a display step of displaying the makeup image stored in the storage circuit on the screen of the display panel, and at least one of before and after the display step A mirror surface step for bringing the screen of the display panel into a mirror state without displaying the makeup image.

本発明によれば、視線移動を伴うことなく画像を参照しつつメイクアップを行うことができる。このため、メイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してしまうことを防止して、ユーザにおいて満足するようなメイクアップ結果を得ることができる。   According to the present invention, makeup can be performed while referring to an image without moving the line of sight. For this reason, the makeup can be completed in a short time without requiring time to complete the makeup. Further, it is possible to prevent the work from being completed due to the complexity of the line-of-sight movement and to complete the work, and to obtain a makeup result that satisfies the user.

本発明の実施形態に係るデジタルフォトフレームの外観を示す図である。It is a figure which shows the external appearance of the digital photo frame which concerns on embodiment of this invention. 表示部の断面構造を示す垂直断面図である。It is a vertical sectional view showing a sectional structure of a display unit. デジタルフォトフレームの回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of a digital photo frame. 撮像部の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of an imaging part. 第1の実施の形態における仮想メイクアップ画像作成モードの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the virtual makeup image creation mode in 1st Embodiment. ライブビュー画像が表示された状態の画面例を示す図である。It is a figure which shows the example of a screen in the state as which the live view image was displayed. ファンデーションのメイクゾーン書き込み時の画面例を示す図である。It is a figure which shows the example of a screen at the time of foundation makeup zone writing. チークのメイクゾーン書き込み書き込み時の画面例を示す図である。It is a figure which shows the example of a screen at the time of cheek make zone write-in writing. アイシャドウのメイクゾーン書き込み時の画面例を示す図である。It is a figure which shows the example of a screen at the time of eye makeup make zone writing. 完成メイクアップ仮想画像を示す図である。It is a figure which shows a completion makeup virtual image. メークモード処理の処理手順を示す示すフローチャートである。It is a flowchart which shows the process sequence of a make mode process. ファンデーションメイクアップ時の表示遷移図である。It is a display transition diagram at the time of foundation makeup. チークメイクアップ時の表示遷移図である。It is a display transition diagram at the time of cheek makeup. アイシャドウメイクアップ時の表示遷移図である。It is a display transition diagram at the time of eye shadow makeup. インタラプトルーチンを示すフローチャートである。It is a flowchart which shows an interrupt routine. インタラプト時の表示遷移図である。It is a display transition diagram at the time of interrupt. 第2の実施の形態における仮想メイクアップ画像作成モードの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the virtual makeup image creation mode in 2nd Embodiment. 同実施の形態における仮想メイクアップ画像作成モード時の表示遷移図である。It is a display transition diagram at the time of the virtual makeup image creation mode in the same embodiment. 第3の実施の形態における仮想メイクアップ画像作成モードの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the virtual makeup image creation mode in 3rd Embodiment. 同実施の形態における仮想メイクアップ画像作成モード時の表示遷移図である。It is a display transition diagram at the time of the virtual makeup image creation mode in the same embodiment.

以下、本発明の実施形態について説明する。
(第1の実施の形態)
図1は、本発明の各実施の形態に共通する画像表示装置としてのデジタルフォトフレーム(以下、DPFという)1を示す外観図である。
Hereinafter, embodiments of the present invention will be described.
(First embodiment)
FIG. 1 is an external view showing a digital photo frame (hereinafter referred to as a DPF) 1 as an image display apparatus common to the embodiments of the present invention.

DPF1の正面には、本体2に保持された液晶表示パネル等によって構成される表示部3が設けられている。この表示部3には透明のタッチパネル5が一体的に構成されており、表示部3に表示される画像に対するタッチを検出可能である。本体2の前面上部中央には撮像部4が設けられ、下面にはメモリカードスロット6が設けられている。更に、本体側部にGPSアンテナ7、前面右側に人感センサ8が設けられている。   In front of the DPF 1, a display unit 3 configured by a liquid crystal display panel or the like held by the main body 2 is provided. A transparent touch panel 5 is integrally formed on the display unit 3 so that a touch on an image displayed on the display unit 3 can be detected. An imaging unit 4 is provided at the front upper center of the main body 2, and a memory card slot 6 is provided on the lower surface. Further, a GPS antenna 7 is provided on the side of the main body, and a human sensor 8 is provided on the right side of the front surface.

図2は、前記表示部3の断面構造を示す図である。この表示部3には、最も外部側に前記タッチパネル5が配置され、外部側から内部側に順次ハーフミラー31、液晶表示パネル32、バックライト33が配置されている。したがって、バックライト33を点灯させた表示モードの状態においては、矢印Aで示すようにバックライト33からの光が液晶表示パネル32、ハーフミラー31、及びタッチパネル5を透過して外部に放出され、液晶表示パネル32に表示される画像を視認することができる。   FIG. 2 is a diagram showing a cross-sectional structure of the display unit 3. In the display unit 3, the touch panel 5 is disposed on the outermost side, and a half mirror 31, a liquid crystal display panel 32, and a backlight 33 are sequentially disposed from the outer side to the inner side. Therefore, in the state of the display mode in which the backlight 33 is turned on, light from the backlight 33 is transmitted to the outside through the liquid crystal display panel 32, the half mirror 31, and the touch panel 5 as indicated by an arrow A, The image displayed on the liquid crystal display panel 32 can be visually recognized.

しかし、バックライト33を消灯させた鏡面モードの状態においては、矢印Bで示すように外部からの光はタッチパネル5を透過した後、ハーフミラー31に反射し再度タッチパネル5を透過して外部に拡散する。したがって、バックライト33を消灯させた鏡面モードの状態においては、ハーフミラー31は鏡面として機能し、ユーザの顔等を写すことが可能である。   However, in the mirror mode state in which the backlight 33 is turned off, as shown by the arrow B, after the light from the outside passes through the touch panel 5, it is reflected by the half mirror 31 and again passes through the touch panel 5 and diffuses outside. To do. Therefore, in the state of the mirror surface mode in which the backlight 33 is turned off, the half mirror 31 functions as a mirror surface and can capture the user's face and the like.

図3は、DPF1の電気的構成を示したブロック図である。DPF1は、CPU(Central Processing Unit)11と、CPU11に接続されたROM(Read Only Memory)12、RAM(Random Access memory)13、内部メモリ14を備え、ROM12には、CPU11に後述するフローチャートに示す動作等を行わせるためのプログラムが記憶されている。このプログラムには、前記撮像部4で撮像した画像における顔部分の画像である顔画像を認識するための顔認識プログラム、この認識した顔画像を画像処理して、メイクアップが施された仮想メイクアップ画像を生成するメイクアップシミュレーションプログラムが含まれている。   FIG. 3 is a block diagram showing an electrical configuration of the DPF 1. The DPF 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12 connected to the CPU 11, a RAM (Random Access memory) 13, and an internal memory 14. The ROM 12 has a flowchart described later in the CPU 11. A program for performing operations and the like is stored. This program includes a face recognition program for recognizing a face image that is an image of a face portion in an image captured by the image capturing unit 4, and a virtual makeup that has been subjected to image processing on the recognized face image and applied with makeup. A makeup simulation program for generating up-images is included.

なお、顔認識プログラム及びメイクアップシミュレーションプログラムとしては、公知のプログラムを適宜用いることができ、例えば前記特許文献1に開示されているプログラムを用いるようにしてもよい。   In addition, as a face recognition program and a makeup simulation program, a well-known program can be used suitably, for example, you may make it use the program currently disclosed by the said patent document 1. FIG.

RAM13は、CPU11が必要に応じて種々のデータを一時的に記憶する作業用のメモリである。内部メモリ14は、ハードディスク又はフラッシュメモリによる大容量不揮発性メモリであり、多数の画像を保存可能となっている。   The RAM 13 is a working memory in which the CPU 11 temporarily stores various data as necessary. The internal memory 14 is a large-capacity nonvolatile memory such as a hard disk or a flash memory, and can store a large number of images.

表示制御部16は、CPU11から供給される表示用の画像データに基づいて液晶表示パネル32を駆動することにより、画像や各種メニューを表示部3に表示させる。キー入力制御部17は、CPU11の制御に基づいてタッチパネル5の操作信号を入力するものである。   The display control unit 16 causes the display unit 3 to display images and various menus by driving the liquid crystal display panel 32 based on display image data supplied from the CPU 11. The key input control unit 17 inputs an operation signal for the touch panel 5 based on the control of the CPU 11.

メモリカードインターフェース18は、メモリカードスロット6に着脱自在に装着された各種のメモリカード60と、CPU11との間におけるデータの入出力を制御する入出力インターフェースである。   The memory card interface 18 is an input / output interface that controls data input / output between the CPU 11 and various memory cards 60 that are detachably mounted in the memory card slot 6.

GPS制御部20は、GPSアンテナ7で受信した情報を元に位置情報を取得する。これにより、DPF1の現在位置を知ることができる。人感センサ8はCPU11に接続され、近くに人がいるかどうかを検知するものである。したがって、近くに人がいない状態が所定時間以上続くと自動的に電源を切って節電を図る(オートパワーオフ)。   The GPS control unit 20 acquires position information based on information received by the GPS antenna 7. Thereby, the present position of DPF1 can be known. The human sensor 8 is connected to the CPU 11 and detects whether a person is nearby. Therefore, when a person is not in the vicinity for a predetermined time or longer, the power is automatically turned off to save power (auto power off).

通信制御部90は、電話回線91若しくは無線LAN92を経由してメールの送受信を含む通信制御を行う。アドレス帳93は、メール送受信に使用するアドレスを記憶し、実際は内部メモリ14内に設けられる。   The communication control unit 90 performs communication control including mail transmission / reception via the telephone line 91 or the wireless LAN 92. The address book 93 stores addresses used for mail transmission / reception, and is actually provided in the internal memory 14.

バックアップサーバ40は、ネットワークを介して接続され、自動的に若しくは手動指示により内部メモリ14に記録されたデータのバックアップを行う。配信コンテンツサーバ50は、ネットワークを介してDPF1へデータを配信することができる。パーソナルコンピュータ70は、無線LAN92等で通信制御部90を介してDPF1と接続でき、DPF1では設定できない複雑な設定等をすることができる。   The backup server 40 is connected via a network and backs up data recorded in the internal memory 14 automatically or by a manual instruction. The distribution content server 50 can distribute data to the DPF 1 via the network. The personal computer 70 can be connected to the DPF 1 via the communication control unit 90 via the wireless LAN 92 or the like, and can perform complicated settings that cannot be set by the DPF 1.

電源制御部80は、電源プラグ81を介してAC電源を取り入れ、直流に変換して各部に電力を供給する。前述したオートパワーオフの制御も行う。   The power control unit 80 takes in AC power through the power plug 81, converts it into direct current, and supplies power to each unit. The auto power-off control described above is also performed.

図4は、前記撮像部4の詳細を示すブロック図である。撮像部4は、AE(Auto Exposure)、AWB(Auto White Balance)、AF(Auto Focus)等の一般的なデジタルカメラと同様の機能を有するものである。すなわち、レンズブロック41には、ズームレンズ411や図示しないフォーカスレンズ等の光学系、及び光学系を駆動するための駆動機構が含まれている。ズームレンズ411は、駆動機構に設けられているズームモータ42によって光軸方向に駆動される。   FIG. 4 is a block diagram showing details of the imaging unit 4. The imaging unit 4 has the same function as a general digital camera such as AE (Auto Exposure), AWB (Auto White Balance), and AF (Auto Focus). That is, the lens block 41 includes an optical system such as a zoom lens 411 and a focus lens (not shown), and a drive mechanism for driving the optical system. The zoom lens 411 is driven in the optical axis direction by a zoom motor 42 provided in the drive mechanism.

撮像部4全体は、前記CPU11より制御され、CPU11には、タイミング発生器(TG:Timing Generator)43を介してモータードライバ44が接続されている。モータードライバ44は、ユーザの操作に応じたCPU11の命令、あるいはCPU11の単独の命令に従いタイミング発生器43が発生するタイミング信号に基づき、ズームモータ42を駆動する。これにより、ズームレンズ411が駆動されて、そのレンズ位置が変化する。   The entire imaging unit 4 is controlled by the CPU 11, and a motor driver 44 is connected to the CPU 11 via a timing generator (TG) 43. The motor driver 44 drives the zoom motor 42 based on a timing signal generated by the timing generator 43 in accordance with a command from the CPU 11 according to a user operation or a single command from the CPU 11. As a result, the zoom lens 411 is driven to change its lens position.

このとき、CPU11は、自己が発生する命令を記憶して管理している。したがって、CPU11は、自己が発生する命令を記憶して管理することにより、タイミング発生器43が発生するタイミング信号に応じて変化するズームレンズ411のレンズ位置を取得することができる。また、図示は省略するが、実際には、フォーカスレンズを駆動するためのフォーカスモーター及びモータードライバや、メカシャッタやメカ絞り及びそれらを駆動するためのモーターを有する駆動機構等が設けられている。   At this time, the CPU 11 stores and manages instructions generated by itself. Therefore, the CPU 11 can acquire the lens position of the zoom lens 411 that changes according to the timing signal generated by the timing generator 43 by storing and managing the command generated by itself. Although not shown in the drawings, actually, a focus motor and a motor driver for driving the focus lens, a mechanical shutter, a mechanical aperture, and a drive mechanism having a motor for driving them are provided.

また、撮像部4は、撮像素子としてCCD(Charge Coupled Device)45を有している。CCD45は、レンズブロック41の光軸上に配置されている。被写体は、レンズブロック41によってCCD45の受光面に結像される。垂直及び水平ドライバ46は、CPU11の命令に従いタイミング発生器43が生成するタイミング信号に基づき、CCD45を駆動する。CCD45は、垂直及び水平ドライバ46により駆動されて、被写体の光学像に応じたアナログの撮像信号をユニット回路47に出力する。ユニット回路47は、CCD45の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS(Correllated Double Sampling)回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D(Analog/Digital)変換器等から構成され、デジタル信号をDSP(Digital Signal Processor)48へ出力する。   In addition, the imaging unit 4 includes a charge coupled device (CCD) 45 as an imaging element. The CCD 45 is disposed on the optical axis of the lens block 41. The subject is imaged on the light receiving surface of the CCD 45 by the lens block 41. The vertical and horizontal drivers 46 drive the CCD 45 based on the timing signal generated by the timing generator 43 in accordance with instructions from the CPU 11. The CCD 45 is driven by a vertical and horizontal driver 46 and outputs an analog imaging signal corresponding to the optical image of the subject to the unit circuit 47. The unit circuit 47 is a CDS (Correllated Double Sampling) circuit that removes noise included in the output signal of the CCD 45 by correlated double sampling, and an A / D (Analog / Digital) that converts the image signal from which noise has been removed to a digital signal. ) It is composed of a converter and the like, and outputs a digital signal to a DSP (Digital Signal Processor) 48.

DSP48は、ユニット回路47から出力されたデジタル信号に対しペデスタルクランプやオートホワイトバランス等の各種画像処理を施すことにより、輝度(Y)信号及び色差(UV)信号からなる画像データを生成する。DSP48で変換された画像データは順次前記RAM13に格納されるとともに、REC(Record)ライブビュー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、前記液晶表示パネル32へ送られてライブビュー画像として画面表示される。   The DSP 48 performs image processing such as pedestal clamp and auto white balance on the digital signal output from the unit circuit 47 to generate image data including a luminance (Y) signal and a color difference (UV) signal. The image data converted by the DSP 48 is sequentially stored in the RAM 13, and in the REC (Record) live view mode, it is converted into a video signal every time one frame of data (image data) is accumulated, and the liquid crystal display It is sent to the panel 32 and displayed on the screen as a live view image.

そして、静止画を撮影する際には、CPU11は、CCD45、垂直及び水平ドライバ46、ユニット回路47、及びDSP48に対してライブビュー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られ、RAM13に一時記憶された画像データは、CPU11により圧縮され、最終的には所定のフォーマットの静止画ファイルとして内部メモリ14等に記録される。   When shooting a still image, the CPU 11 instructs the CCD 45, the vertical and horizontal drivers 46, the unit circuit 47, and the DSP 48 to switch from the live view image shooting mode to the still image shooting mode. The image data obtained by the shooting process in the image shooting mode and temporarily stored in the RAM 13 is compressed by the CPU 11 and finally recorded in the internal memory 14 or the like as a still image file of a predetermined format.

なお、ムービー録画モードにおいては、RAM13に順次記憶される複数の画像データがCPU11により順次圧縮され、動画ファイルとして内部メモリ14等に記録される。この内部メモリ14等に記録された静止画ファイル及び動画ファイルは、PLAY・モードにおいてユーザの選択操作に応じてCPU11に読み出されるとともに伸張され、画像データとしてRAM13に展開された後、画像データに基づく画像が液晶表示パネル32に表示される。   In the movie recording mode, a plurality of image data sequentially stored in the RAM 13 are sequentially compressed by the CPU 11 and recorded as a moving image file in the internal memory 14 or the like. The still image file and the moving image file recorded in the internal memory 14 or the like are read out to the CPU 11 in accordance with the user's selection operation in the PLAY mode, expanded, developed as image data in the RAM 13, and then based on the image data. An image is displayed on the liquid crystal display panel 32.

無論、液晶表示パネル32にライブビュー画像や再生画像等を表示する際には、バックライト33はオンであって点灯されている。   Of course, when a live view image, a reproduced image, or the like is displayed on the liquid crystal display panel 32, the backlight 33 is on and lit.

次に、以上の構成に係る第1の実施の形態の動作について説明する。仮想メイクアップ画像作成モードが設定されている状態において、CPU11はROM12に格納されているプログラムに従い、図5のフローチャートに示すように処理を実行する。すなわち、撮像部4によって撮像された画像を液晶表示パネル32に転送することにより、ライブビュー画像を表示させる(ステップS101)。したがって、ユーザがDPF1に顔を正対させて着座していると、図6に示すように、表示部3の液晶表示パネル32には、ユーザの顔Fが表示される。   Next, the operation of the first embodiment according to the above configuration will be described. In the state where the virtual makeup image creation mode is set, the CPU 11 executes processing as shown in the flowchart of FIG. 5 according to the program stored in the ROM 12. In other words, the live view image is displayed by transferring the image captured by the imaging unit 4 to the liquid crystal display panel 32 (step S101). Therefore, when the user is seated with the face facing the DPF 1, the user's face F is displayed on the liquid crystal display panel 32 of the display unit 3 as shown in FIG. 6.

このとき、CPU11は、図6に示すように、液晶表示パネル32の一部にシャッタボタン301を表示させ、この表示させたシャッタボタン301がタッチされたか否かを判断する(ステップS102)。シャッタボタン301がタッチされたならば、撮影処理を実行して、撮像部4により撮像されている画像をRAM13に保存する(ステップS103)。   At this time, as shown in FIG. 6, the CPU 11 displays a shutter button 301 on a part of the liquid crystal display panel 32, and determines whether or not the displayed shutter button 301 is touched (step S102). If the shutter button 301 is touched, a shooting process is executed, and an image captured by the imaging unit 4 is stored in the RAM 13 (step S103).

なお、本実施の形態においては、シャッタボタン301に対するタッチに応答して撮影処理を実行するようにしたが、顔認識プログラムにより顔を認識し、ライブビュー画像中にズームレンズ411の位置に応じた所定の大きさの顔が存在する状態となったことを条件として、自動撮影するようにしてもよい。
また、撮影される顔の大きさに関しては、例えば液晶表示パネル31「ズームボタン」を表示して、「ズームボタン」に対するタッチに応じてズームモータ42によりズームレンズ411を駆動するようにしもよい。このようにすれば、ユーザが所望する大きさの顔画像を撮影することができる。
In this embodiment, the photographing process is executed in response to the touch on the shutter button 301. However, the face is recognized by the face recognition program, and the position corresponding to the position of the zoom lens 411 in the live view image is determined. Automatic shooting may be performed on the condition that a face having a predetermined size exists.
Further, regarding the size of the face to be photographed, for example, the liquid crystal display panel 31 “zoom button” may be displayed, and the zoom lens 411 may be driven by the zoom motor 42 in response to a touch on the “zoom button”. In this way, a face image having a size desired by the user can be taken.

引き続き、この撮影された顔画像を液晶表示パネル32に再生表示させる(ステップS104)。したがって、このステップS104での処理により、図7に示すように、当該ユーザの顔画像FPが再生表示される。次に、ファンデーションのメイクゾーン書き込み指示表示を実行する(ステップS105)。このステップS105での処理により、図7に示すように、例えば「ファンデーション色サンプル」なる文字列ととサンプル色「BE(ベージュの略)1」「BE2」「OC(オークルの略)1」「OC2」を液晶表示パネル32に表示させる。   Subsequently, the photographed face image is reproduced and displayed on the liquid crystal display panel 32 (step S104). Therefore, the face image FP of the user is reproduced and displayed by the processing in step S104 as shown in FIG. Next, the makeup zone writing instruction display of the foundation is executed (step S105). As a result of the processing in step S105, as shown in FIG. 7, for example, the character string “foundation color sample” and the sample colors “BE (abbreviation of beige) 1” “BE2” “OC (abbreviation of ocher) 1” “ OC2 "is displayed on the liquid crystal display panel 32.

これを視認したユーザは、指あるいはペンにより、何れかのサンプル色にタッチした後、表示されている顔画像FPにおいて、ファンデーションを施すべき部位にタッチし、あるいはタッチした状態で指等を移動させる。すると、タッチした位置及び領域がタッチパネル5より検出され、CPU11はこのタッチパネル5により検出された位置及び領域に応じて顔画像をメイクアップ処理する(ステップS106)。   The user who visually recognizes this touches any sample color with a finger or a pen, and then touches or moves a finger or the like in the face image FP displayed on the face image FP. . Then, the touched position and area are detected from the touch panel 5, and the CPU 11 performs a makeup process on the face image according to the position and area detected by the touch panel 5 (step S106).

このメイクアップ処理は、例えばタッチにより選択されたサンプル色であるファンデーション色で、タッチした位置及び領域を着色表示する処理である。したがって、ユーザが顔画像FPの鼻筋や両眼の下部にタッチしたとすると、図7に示すように、顔画像FPの鼻筋や両眼の下部に所定のファンデーション色からなるメイクゾーンMZ(ファンデーションの場合は顔全体)が付加されることとなる。   The makeup process is a process of coloring and displaying the touched position and region with a foundation color that is a sample color selected by touch, for example. Therefore, if the user touches the nose of the face image FP and the lower part of both eyes, as shown in FIG. 7, the makeup zone MZ (foundation of the foundation) having a predetermined foundation color is formed on the nose of the face image FP and the lower part of both eyes. In this case, the entire face) is added.

また、このときCPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるファンデーションの書き込みが完了したか否かを判断する(ステップS107)。ユーザにより完了ボタン303がタッチされて、ファンデーションの書き込みが完了したならば、この時点で液晶表示パネル32に表示されている画像をファンデーション仮想メイクアップ画像として、RAM13に記憶する(ステップS108)。したがって、図6(c)の表示状態でユーザが完了ボタン303にタッチしたとすると、顔画像FPの鼻筋や両眼の下部に所定のファンデーション色からなるメイクゾーンMZが付加された画像がファンデーション仮想メイクアップ画像FMとしてRAM13に保存されることとなる。   At this time, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32, and determines whether or not the writing of the foundation by the user is completed depending on whether or not the completion button 303 is touched (step). S107). If the completion button 303 is touched by the user and the writing of the foundation is completed, the image displayed on the liquid crystal display panel 32 at this time is stored in the RAM 13 as a foundation virtual makeup image (step S108). Therefore, if the user touches the completion button 303 in the display state of FIG. 6C, an image in which a makeup zone MZ having a predetermined foundation color is added to the nose of the face image FP and the lower part of both eyes is a virtual foundation. The makeup image FM is stored in the RAM 13.

引き続き、チークのメイクゾーン書き込み指示表示を実行する(ステップS109)。このステップS109での処理により、図8に示すように、例えば「チーク色の色サンプル」なる文字列と、サンプル色「PK(ピンクの略)1」「PK2」「OR(オレンジの略)1」「OR2」「RD(レッドの略)1」「RD2」を液晶表示パネル32に表示させる。   Subsequently, a cheek makeup zone writing instruction display is executed (step S109). As a result of the processing in step S109, as shown in FIG. 8, for example, a character string “teak color sample” and sample colors “PK (abbreviation of pink) 1” “PK2” “OR (abbreviation of orange) 1 “OR2”, “RD (abbreviation of red) 1”, and “RD2” are displayed on the liquid crystal display panel 32.

これを視認したユーザは、指あるいはペンにより、表示されている顔画像FPにおいて、チークを施すべき部位にタッチし、あるいはタッチした状態で指等を移動させる。すると、タッチした位置及び領域がタッチパネル5より検出され、CPU11はこのタッチパネル5により検出された位置及び領域に応じて顔画像をメイクアップ処理する(ステップS110)。   The user who has visually recognized this touches a site to be cheeked in the displayed face image FP with a finger or a pen, or moves the finger or the like in the touched state. Then, the touched position and area are detected from the touch panel 5, and the CPU 11 performs a makeup process on the face image according to the position and area detected by the touch panel 5 (step S110).

このメイクアップ処理は、例えばタッチにより選択されたサンプル色であるチーク色で、タッチした位置及び領域を着色表示する処理である。したがって、ユーザが顔画像FPの両頬にタッチしたとすると、図8に示すように、顔画像FPの両頬に所定のチーク色からなるメイクゾーンMZが付加されることとなる。また、このときCPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるチークの書き込みが完了したか否かを判断する(ステップS111)。ユーザにより完了ボタン303がタッチされて、チークの書き込みが完了したならば、この時点で液晶表示パネル32に表示されている画像をチーク仮想メイクアップ画像CMとして、RAM13に記憶する(ステップS112)。   The makeup process is a process of coloring and displaying the touched position and region with a cheek color that is a sample color selected by touch, for example. Therefore, if the user touches both cheeks of the face image FP, as shown in FIG. 8, a makeup zone MZ having a predetermined cheek color is added to both cheeks of the face image FP. At this time, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32, and determines whether the writing of the cheek is completed by the user based on whether the completion button 303 is touched (step). S111). If the user touches the completion button 303 and the writing of the cheek is completed, the image displayed on the liquid crystal display panel 32 at this time is stored in the RAM 13 as the cheek virtual makeup image CM (step S112).

引き続き、アイシャドウのメイクゾーン書き込み指示表示を実行する(ステップS113)。このステップS113での処理により、図9に示すように、例えば「アイシャドウ色の色サンプル」なる文字列と、サンプル色「GR(グリーンの略)1」「GR2」「BL(ブルーの略)1」「BL2」「PU(パープルの略)1」「PU2」を液晶表示パネル32に表示させる。   Subsequently, eye shadow make zone writing instruction display is executed (step S113). Through the processing in step S113, as shown in FIG. 9, for example, a character string “eye shadow color sample” and sample colors “GR (green) 1” “GR2” “BL (blue)) “1”, “BL2”, “PU (abbreviation of purple) 1”, “PU2” are displayed on the liquid crystal display panel 32.

これを視認したユーザは、指あるいはペンにより、表示されている顔画像FPにおいて、アイシャドウを施すべき部位にタッチし、あるいはタッチした状態で指等を移動させる。すると、タッチした位置及び領域がタッチパネル5より検出され、CPU11はこのタッチパネル5により検出された位置及び領域に応じて顔画像をメイクアップ処理する(ステップS114)。   The user who visually recognizes this touches the site to which the eye shadow is to be applied in the displayed face image FP with the finger or the pen, or moves the finger or the like in the touched state. Then, the touched position and area are detected from the touch panel 5, and the CPU 11 performs a makeup process on the face image according to the position and area detected by the touch panel 5 (step S114).

このメイクアップ処理は、例えばタッチにより選択されたサンプル色であるアイシャドウ色で、タッチした位置及び領域を着色表示する処理である。したがって、ユーザが瞼にタッチしたとすると、瞼に所定のアイシャドウ色からなるメイクゾーンが付加されることとなる。また、このときCPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるアイシャドウの書き込みが完了したか否かを判断する(ステップS115)。ユーザにより完了ボタン303がタッチされて、チークの書き込みが完了したならば、この時点で液晶表示パネル32に表示されている画像をアイシャドウ仮想メイクアップ画像IMとして、RAM13に記憶する(ステップS116)。   This makeup process is a process of coloring and displaying the touched position and region with, for example, an eye shadow color that is a sample color selected by touch. Therefore, if the user touches the eyelid, a makeup zone composed of a predetermined eye shadow color is added to the eyelid. At this time, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32, and determines whether or not the writing of the eye shadow by the user is completed depending on whether or not the completion button 303 is touched ( Step S115). If the user touches the completion button 303 and the writing of the cheek is completed, the image displayed on the liquid crystal display panel 32 at this time is stored in the RAM 13 as the eye shadow virtual makeup image IM (step S116). .

さらに、以上のアイシャドウ仮想メイクアップまでが施された画像を完成メイクアップ仮想画像としてRAM13に記憶する(ステップS117)。したがって、このステップS117での処理により、図10に示す完成メイクアップ仮想画像PMがRAM13に保存されることとなる。   Further, the image subjected to the above eye shadow virtual makeup is stored in the RAM 13 as a completed makeup virtual image (step S117). Accordingly, the completed makeup virtual image PM shown in FIG. 10 is stored in the RAM 13 by the processing in step S117.

したがって、以上に説明した仮想メイクアップ画像作成モードが終了すると、RAM13には、少なくとも下記(1)〜(4)の画像が記憶された状態となる。
(1)ファンデーション仮想メイクアップ画像
(2)チーク仮想メイクアップ画像
(3)アイシャドウ仮想メイクアップ画像
(4)完成メイクアップ仮想画像(=アイシャドウ仮想メイクアップ画像)
Therefore, when the virtual makeup image creation mode described above is completed, at least the following images (1) to (4) are stored in the RAM 13.
(1) Foundation virtual makeup image (2) Teak virtual makeup image (3) Eye shadow virtual makeup image (4) Completed makeup virtual image (= eye shadow virtual makeup image)

また、以上に説明した仮想メイクアップ画像作成モードが終了すると、CPU11は、図11に示すフローチャートに従ってメークモード処理を実行する。すなわち、バックライト33をオンにして(ステップS201)、ファンデーション仮想メイクアップ画像と、ファンデーションを施すべき方向を示す矢印を液晶表示パネル32に表示させる(ステップS202)。図2において前述したように、バックライト33を点灯さた状態では、矢印Aで示すようにバックライト33からの光が液晶表示パネル32、ハーフミラー31、及びタッチパネル5を透過して外部に放出され、液晶表示パネル32に表示される画像を視認することができる。   When the virtual makeup image creation mode described above ends, the CPU 11 executes the make mode process according to the flowchart shown in FIG. That is, the backlight 33 is turned on (step S201), and the foundation virtual makeup image and an arrow indicating the direction in which the foundation should be applied are displayed on the liquid crystal display panel 32 (step S202). As described above with reference to FIG. 2, when the backlight 33 is turned on, light from the backlight 33 passes through the liquid crystal display panel 32, the half mirror 31, and the touch panel 5 and is emitted to the outside as indicated by an arrow A. Then, the image displayed on the liquid crystal display panel 32 can be visually recognized.

したがって、図12(a)に示すように、ユーザは表示部3の外部側から、液晶表示パネル32に表示されたファンデーション仮想メイクアップ画像FMを視認することができる。また、このファンデーション仮想メイクアップ画像FMには、メイクゾーンMZが付加され、予めROM12に記憶されているプログラムに従って、認識した顔画像に対してファンデーションを施すべき施すべき方向を示す矢印Cが表示される。したがって、ユーザはこれを参照して自己の顔へのファンデーションによるメイクを開始する。   Accordingly, as shown in FIG. 12A, the user can visually recognize the foundation virtual makeup image FM displayed on the liquid crystal display panel 32 from the outside of the display unit 3. In addition, a makeup zone MZ is added to the foundation virtual makeup image FM, and an arrow C indicating the direction in which foundation should be applied to the recognized face image is displayed according to a program stored in the ROM 12 in advance. The Therefore, the user refers to this and starts makeup by the foundation on his / her face.

なお、このとき液晶表示パネル31には、図示のように
1.ファンデーションを矢印のように塗る。
2.チークを矢印のように入れる。
3.アイシャドウを矢印のように入れる
なる指示項目304を表示させる。
At this time, the liquid crystal display panel 31 has 1.. Apply the foundation as shown by the arrow.
2. Insert teak as shown by the arrow.
3. An instruction item 304 for inserting an eye shadow as shown by an arrow is displayed.

一方、CPU11は、第1の所定時間が経過したか否かを判断し(ステップS203)、第1の所定時間が経過したならばバックライト33をオフにして消灯させる(ステップS204)。図2において前述したように、バックライト33を消灯させた鏡面モードの状態においては、矢印Bで示すように外部からの光はタッチパネル5を透過した後、ハーフミラー31に反射し再度タッチパネル5を透過して外部に拡散する。このため、バックライト33を消灯させた鏡面モードの状態においては、ハーフミラー31は鏡面として機能し、ユーザの顔等を写すことが可能である。   On the other hand, the CPU 11 determines whether or not a first predetermined time has elapsed (step S203), and when the first predetermined time has elapsed, the backlight 33 is turned off and extinguished (step S204). As described above with reference to FIG. 2, in the specular mode state in which the backlight 33 is turned off, as shown by the arrow B, the external light passes through the touch panel 5 and then is reflected by the half mirror 31 and again touches the touch panel 5. Permeates and diffuses to the outside. For this reason, in the mirror surface mode in which the backlight 33 is turned off, the half mirror 31 functions as a mirror surface and can capture the user's face and the like.

したがって、図12(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fが写る。よって、ユーザはハーフミラー31に写った顔Fを見ながら、自己の顔にファンデーションによるメイクを施すことができる。なお、このとき、その直前まで表示されていたファンデーション仮想メイクアップ画像FMと自己の顔Fの位置を合わせる。   Accordingly, as shown in FIG. 12B, the user's face F is reflected on the half mirror 31 that functions as a mirror surface. Therefore, the user can apply makeup with a foundation on his / her face while looking at the face F reflected on the half mirror 31. At this time, the position of the foundation virtual makeup image FM displayed up to that point and the position of the own face F are matched.

他方、CPU11は、バックライト33をオフにしてから第2の所定時間が経過したか否かを判断し(ステップS205)、第2の所定時間が経過したならばバックライト33をオンにする(ステップS206)。これにより、図12(a)に示すように、再度ユーザは表示部3の外部側から、液晶表示パネル32に表示されたファンデーション仮想メイクアップ画像FMを視認することができる。   On the other hand, the CPU 11 determines whether or not a second predetermined time has elapsed since the backlight 33 was turned off (step S205), and turns on the backlight 33 when the second predetermined time has elapsed (step S205). Step S206). Thereby, as shown in FIG. 12A, the user can visually recognize the foundation virtual makeup image FM displayed on the liquid crystal display panel 32 from the outside of the display unit 3 again.

つまり、図12に示すように、ファンデーション仮想メイクアップ画像FMが表示される状態(a)と、顔Fが第2の所定時間ハーフミラー31に写る状態(b)とが交互に繰り返される。このとき、ファンデーション仮想メイクアップ画像FMを表示する液晶表示パネル32と、顔Fが写るハーフミラー31とは同一の表示部3内に積層されている。したがって、ファンデーション仮想メイクアップ画像FMを見る際と、写った顔Fを見る際とで視線移動を伴うことがない。   That is, as shown in FIG. 12, the state (a) in which the foundation virtual makeup image FM is displayed and the state (b) in which the face F is reflected on the half mirror 31 for the second predetermined time are alternately repeated. At this time, the liquid crystal display panel 32 that displays the foundation virtual make-up image FM and the half mirror 31 that displays the face F are stacked in the same display unit 3. Therefore, the line of sight does not move when the foundation virtual makeup image FM is viewed and when the captured face F is viewed.

よって、視線移動を伴うことなく、画像を参照しつつファンデーションのメイクアップを行うことができる。このため、ファンデーションのメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してまうことを防止して、ユーザにおいて満足するようなファンデーションのメイクアップ結果を得ることができる。   Therefore, it is possible to make up the foundation while referring to the image without moving the line of sight. For this reason, the makeup can be completed in a short time without requiring time to complete the makeup of the foundation. In addition, it is possible to prevent the makeup from being finished with incomplete makeup due to the complicated movement of the line of sight, and obtain a foundation makeup result that satisfies the user.

ここで、第1の所定時間と第2の所定時間との長さの関係は、第2の所定時間が第1の所定時間よりも長いことが好ましい。その理由は、第1の所定時間においてユーザは、表示されたファンデーション仮想メイクアップ画像を視認するのみであるが、第2の所定時間においてユーザは、ハーフミラー31に写った自己の顔Fを見ながらメイクアップ作業を行わなければならない。したがって、メイクアップ作業が行われることを考慮すると、第2の所定時間が第1の所定時間よりも長くすることがよい。無論、第1の所定時間と第2の所定時間の長さを同一としてもよい。   Here, the relationship between the lengths of the first predetermined time and the second predetermined time is preferably longer than the first predetermined time. The reason is that the user only visually recognizes the displayed foundation virtual makeup image at the first predetermined time, but at the second predetermined time, the user looks at his / her face F reflected on the half mirror 31. While doing make-up work. Therefore, considering that the makeup work is performed, it is preferable that the second predetermined time is longer than the first predetermined time. Of course, the length of the first predetermined time and the second predetermined time may be the same.

また、図12(a)に示すように、CPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるファンデーションのメイク作業が完了したか否かを判断する(ステップS207)。ユーザがファンデーションのメイク作業を完了して、完了ボタン303をタッチすると、ステップS207の判断がYESとなる。   Further, as shown in FIG. 12A, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32, and the foundation makeup work by the user is completed depending on whether or not the completion button 303 is touched. It is determined whether or not it has been done (step S207). When the user completes the foundation makeup work and touches the completion button 303, the determination in step S207 is YES.

したがって、CPU11は、ステップS207からステップS208に処理を進めて、チーク仮想メイクアップ画像と、チークを施すべき方向を示す矢印を液晶表示パネル32に表示させる(ステップS208)。図2において前述したように、バックライト33を点灯さた状態では、矢印Aで示すようにバックライト33からの光が液晶表示パネル32、ハーフミラー31、及びタッチパネル5を透過して外部に放出され、液晶表示パネル32に表示される画像を視認することができる。   Therefore, the CPU 11 advances the processing from step S207 to step S208, and displays a cheek virtual makeup image and an arrow indicating the direction to be cheeked on the liquid crystal display panel 32 (step S208). As described above with reference to FIG. 2, when the backlight 33 is turned on, light from the backlight 33 passes through the liquid crystal display panel 32, the half mirror 31, and the touch panel 5 and is emitted to the outside as indicated by an arrow A. Then, the image displayed on the liquid crystal display panel 32 can be visually recognized.

したがって、図13(a)に示すように、ユーザは表示部3の外部側から、液晶表示パネル32に表示されたチーク仮想メイクアップ画像CMを視認することができる。また、このチーク仮想メイクアップ画像CMには、メイクゾーンMZが付加され、予めROM12に記憶されているプログラムに従って、認識した顔画像に対してチークを施すべき施すべき方向を示す矢印Cが表示される。したがって、ユーザはこれを参照して自己の顔へのチークによるメイクを開始する。   Therefore, as shown in FIG. 13A, the user can visually recognize the cheek virtual makeup image CM displayed on the liquid crystal display panel 32 from the outside of the display unit 3. The cheek virtual make-up image CM is provided with a make zone MZ, and an arrow C indicating the direction in which cheek should be applied to the recognized face image is displayed according to a program stored in the ROM 12 in advance. The Therefore, the user refers to this and starts makeup by cheeking on his / her face.

なお、このとき液晶表示パネル31には、前述と同様に指示項目304を表示させる。   At this time, the instruction item 304 is displayed on the liquid crystal display panel 31 as described above.

一方、CPU11は、第1の所定時間が経過したか否かを判断し(ステップS209)、第1の所定時間が経過したならばバックライト33をオフにして消灯させる(ステップS210)。したがって、図13(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fが写る。よって、ユーザはハーフミラー31に写った顔Fを見ながら、自己の顔にチークによるメイクを施すことができる。   On the other hand, the CPU 11 determines whether or not the first predetermined time has elapsed (step S209), and when the first predetermined time has elapsed, the backlight 33 is turned off and turned off (step S210). Therefore, as shown in FIG. 13B, the user's face F is reflected on the half mirror 31 that functions as a mirror surface. Therefore, the user can apply cheek makeup on his / her face while looking at the face F reflected on the half mirror 31.

他方、CPU11は、バックライト33をオフにしてから第2の所定時間が経過したか否かを判断し(ステップS211)、第2の所定時間が経過したならばバックライト33をオンにする(ステップS212)。これにより、図13(a)に示すように、再度ユーザは表示部3の外部側から、液晶表示パネル32に表示されたチーク仮想メイクアップ画像CMを視認することができる。   On the other hand, the CPU 11 determines whether or not the second predetermined time has elapsed since the backlight 33 was turned off (step S211), and turns on the backlight 33 when the second predetermined time has elapsed (step S211). Step S212). Accordingly, as shown in FIG. 13A, the user can visually recognize the cheek virtual makeup image CM displayed on the liquid crystal display panel 32 from the outside of the display unit 3 again.

つまり、図13に示すように、チーク仮想メイクアップ画像CMが表示される状態(a)と、顔Fが第2の所定時間ハーフミラー31に写る状態(b)とが交互に繰り返される。このとき、チーク仮想メイクアップ画像CMを表示する液晶表示パネル32と、顔Fが写るハーフミラー31とは同一の表示部3内に積層されている。したがって、チーク仮想メイクアップ画像CMを見る際と、写った顔Fを見る際とで視線移動を伴うことがない。   That is, as shown in FIG. 13, the state (a) in which the cheek virtual makeup image CM is displayed and the state (b) in which the face F is reflected on the half mirror 31 for the second predetermined time are alternately repeated. At this time, the liquid crystal display panel 32 that displays the cheek virtual makeup image CM and the half mirror 31 that displays the face F are stacked in the same display unit 3. Therefore, the line of sight is not moved when the cheek virtual makeup image CM is viewed and when the captured face F is viewed.

よって、視線移動を伴うことなく、画像を参照しつつチークのメイクアップを行うことができる。このため、チークのメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してまうことを防止して、ユーザにおいて満足するようなチークのメイクアップ結果を得ることができる。   Therefore, it is possible to make up the cheek while referring to the image without moving the line of sight. For this reason, the makeup can be completed in a short time without requiring time to complete the makeup of the cheek. In addition, it is possible to prevent the work from being completed with makeup being incomplete due to the complicated movement of the line of sight, and to obtain a cheek makeup result that satisfies the user.

また、図13(a)に示すように、CPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるチークのメイク作業が完了したか否かを判断する(ステップS213)。ユーザがチークのメイク作業を完了して、完了ボタン303をタッチすると、ステップS213の判断がYESとなる。   Further, as shown in FIG. 13A, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32, and the cheek makeup work by the user is completed depending on whether or not the completion button 303 is touched. It is determined whether or not it has been done (step S213). When the user completes the cheek makeup work and touches the completion button 303, the determination in step S213 is YES.

したがって、CPU11は、ステップS213からステップS214に処理を進めて、アイシャドウ仮想メイクアップ画像と、アイシャドウを施すべき方向を示す矢印を液晶表示パネル32に表示させる(ステップS214)。図2において前述したように、バックライト33を点灯さた状態では、矢印Aで示すようにバックライト33からの光が液晶表示パネル32、ハーフミラー31、及びタッチパネル5を透過して外部に放出され、液晶表示パネル32に表示される画像を視認することができる。   Therefore, the CPU 11 advances the process from step S213 to step S214, and displays an eye shadow virtual makeup image and an arrow indicating the direction in which the eye shadow should be applied on the liquid crystal display panel 32 (step S214). As described above with reference to FIG. 2, when the backlight 33 is turned on, light from the backlight 33 passes through the liquid crystal display panel 32, the half mirror 31, and the touch panel 5 and is emitted to the outside as indicated by an arrow A. Then, the image displayed on the liquid crystal display panel 32 can be visually recognized.

したがって、図14(a)に示すように、ユーザは表示部3の外部側から、液晶表示パネル32に表示されたアイシャドウ仮想メイクアップ画像IMを視認することができる。また、このアイシャドウ仮想メイクアップ画像IMには、メイクゾーンMZが付加され、予めROM12に記憶されているプログラムに従って、認識した顔画像に対してアイシャドウを施すべき施すべき方向を示す矢印Cが表示される。したがって、ユーザはこれを参照して自己の顔へのアイシャドウによるメイクを開始する。   Accordingly, as shown in FIG. 14A, the user can visually recognize the eye shadow virtual makeup image IM displayed on the liquid crystal display panel 32 from the outside of the display unit 3. Further, a makeup zone MZ is added to the eye shadow virtual makeup image IM, and an arrow C indicating the direction in which the eye shadow should be applied to the recognized face image according to a program stored in the ROM 12 in advance. Is displayed. Therefore, the user refers to this and starts makeup by eye shadow on his / her face.

なお、このとき液晶表示パネル31には、前述と同様に指示項目304を表示させる。   At this time, the instruction item 304 is displayed on the liquid crystal display panel 31 as described above.

一方、CPU11は、第1の所定時間が経過したか否かを判断し(ステップS215)、第1の所定時間が経過したならばバックライト33をオフにして消灯させる(ステップS216)。したがって、図14(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fが写る。よって、ユーザはハーフミラー31に写った顔Fを見ながら、自己の顔にアイシャドウによるメイクを施すことができる。   On the other hand, the CPU 11 determines whether or not a first predetermined time has elapsed (step S215), and when the first predetermined time has elapsed, the backlight 33 is turned off and extinguished (step S216). Therefore, as shown in FIG. 14B, the user's face F is reflected on the half mirror 31 that functions as a mirror surface. Therefore, the user can apply makeup by eye shadow on his / her face while looking at the face F reflected on the half mirror 31.

他方、CPU11は、バックライト33をオフにしてから第2の所定時間が経過したか否かを判断し(ステップS217)、第2の所定時間が経過したならばバックライト33をオンにする(ステップS218)。これにより、図14(a)に示すように、再度ユーザは表示部3の外部側から、液晶表示パネル32に表示されたアイシャドウ仮想メイクアップ画像IMを視認することができる。   On the other hand, the CPU 11 determines whether or not a second predetermined time has elapsed since the backlight 33 was turned off (step S217), and turns on the backlight 33 if the second predetermined time has elapsed (step S217). Step S218). Thereby, as shown in FIG. 14A, the user can visually recognize the eyeshadow virtual makeup image IM displayed on the liquid crystal display panel 32 from the outside of the display unit 3 again.

つまり、図14に示すように、アイシャドウ仮想メイクアップ画像IMが表示される状態(a)と、顔Fが第2の所定時間ハーフミラー31に写る状態(b)とが交互に繰り返される。このとき、アイシャドウ仮想メイクアップ画像IMを表示する液晶表示パネル32と、顔Fが写るハーフミラー31とは同一の表示部3内に積層されている。したがって、アイシャドウ仮想メイクアップ画像IMを見る際と、写った顔Fを見る際とで視線移動を伴うことがない。   That is, as shown in FIG. 14, the state (a) in which the eye shadow virtual makeup image IM is displayed and the state (b) in which the face F is reflected on the half mirror 31 for the second predetermined time are alternately repeated. At this time, the liquid crystal display panel 32 that displays the eye shadow virtual makeup image IM and the half mirror 31 that displays the face F are stacked in the same display unit 3. Therefore, the line of sight does not move when the eye shadow virtual makeup image IM is viewed and when the captured face F is viewed.

よって、視線移動を伴うことなく、画像を参照しつつアイシャドウのメイクアップを行うことができる。このため、アイシャドウのメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してまうことを防止して、ユーザにおいて満足するようなアイシャドウのメイクアップ結果を得ることができる。   Therefore, it is possible to make up the eye shadow while referring to the image without moving the line of sight. Therefore, it is possible to complete the makeup in a short time without requiring time to complete the makeup of the eye shadow. In addition, it is possible to prevent the makeup from being completed due to the complicated movement of the line of sight and to finish the work, and to obtain an eye shadow makeup result that satisfies the user.

また、図14(a)に示すように、CPU11は、液晶表示パネル32の一部に完了ボタン303を表示し、この完了ボタン303がタッチされたか否かにより、ユーザによるアイシャドウのメイク作業が完了したか否かを判断する(ステップS219)。ユーザがアイシャドウのメイク作業を完了して、完了ボタン303をタッチすると、ステップS207の判断がYESとなり、このフローに従った処理を終了する。   As shown in FIG. 14A, the CPU 11 displays a completion button 303 on a part of the liquid crystal display panel 32. Depending on whether or not the completion button 303 is touched, the user performs eye shadow makeup work. It is determined whether or not it is completed (step S219). When the user completes the eye shadow makeup work and touches the completion button 303, the determination in step S207 is YES, and the processing according to this flow is terminated.

したがって、本実施の形態によれば、ファンデーション、チーク、アイシャドウの各々のメイク種に関して、視線移動を伴うことなく画像を参照しつつメイクアップを行うことができる。よって、各メイク種のメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してしまうことを防止して、ユーザにおいて満足するような顔全体のメイクアップ結果を得ることができる。   Therefore, according to the present embodiment, makeup can be performed while referring to an image with no eye movement for each makeup type of foundation, cheek, and eye shadow. Therefore, it is possible to complete the makeup in a short time without requiring time to complete the makeup of each makeup type. In addition, it is possible to prevent the end of the work with the makeup being incomplete due to the complicated movement of the line of sight, and obtain a makeup result of the entire face that satisfies the user.

図15は、本実施の形態おけるタイマーインタラプトルーチンを示すフローチャートである。CPU11は、前述の図11に示すフローチャートに従ってメークモード処理が実行されている状態において、所定の周期で飛び込んでこのタイマーインタラプトルーチンに従い処理を実行する。すなわち、タッチパネル5の所定部位、例えばタッチパネル5の中心部に対するタッチが検出されたか否かを判断する(ステップS301)。このタッチが検出されたならば、バックライト33をオンにして(ステップS302)、完成メイクアップ画像を液晶表示パネル32に表示させる(ステップS303)。   FIG. 15 is a flowchart showing a timer interrupt routine in the present embodiment. In a state where the make mode process is being executed according to the flowchart shown in FIG. 11, the CPU 11 jumps in at a predetermined cycle and executes the process according to this timer interrupt routine. That is, it is determined whether or not a touch on a predetermined part of the touch panel 5, for example, the center of the touch panel 5 is detected (step S <b> 301). If this touch is detected, the backlight 33 is turned on (step S302), and a completed makeup image is displayed on the liquid crystal display panel 32 (step S303).

したがって、図16(a)に示すように、ユーザは表示部3の外部側から、液晶表示パネル32に表示された完成メイクアップ仮想画像PMを視認することができる。また、CPU11は、第1の所定時間が経過したか否かを判断し(ステップS304)、第1の所定時間が経過したならばバックライト33をオフにして消灯させる(ステップS305)。したがって、図16(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fが写る。よって、ユーザはハーフミラー31に写った顔Fを見ることができる。   Therefore, as shown in FIG. 16A, the user can visually recognize the completed makeup virtual image PM displayed on the liquid crystal display panel 32 from the outside of the display unit 3. Further, the CPU 11 determines whether or not the first predetermined time has elapsed (step S304), and when the first predetermined time has elapsed, the backlight 33 is turned off and extinguished (step S305). Therefore, as shown in FIG. 16B, the user's face F is reflected on the half mirror 31 functioning as a mirror surface. Therefore, the user can see the face F shown on the half mirror 31.

他方、CPU11は、バックライト33をオフにしてから第2の所定時間が経過したか否かを判断し(ステップS306)、第2の所定時間が経過したならば再度タッチパネル5の中心部に対するタッチが検出されたか否かを判断する(ステップS307)。そして、再度タッチパネル5に対するタッチが検出されるまで、ステップS302からの処理を繰り返し、再度タッチパネル5に対するタッチが検出されたならば、図11に示すメークモード処理のメインルーチンにリターンする。   On the other hand, the CPU 11 determines whether or not the second predetermined time has elapsed since the backlight 33 was turned off (step S306). If the second predetermined time has elapsed, the CPU 11 touches the center of the touch panel 5 again. Is detected (step S307). Then, the process from step S302 is repeated until a touch on the touch panel 5 is detected again. If a touch on the touch panel 5 is detected again, the process returns to the main routine of the make mode process shown in FIG.

したがって、このタイマーインタラプトルーチンにより、ユーザはタッチパネル5の中心部に対するタッチを行えば、任意の時点で完成メイクアップ仮想画像PMを視認することができる。よって、各メイクの途中や終了時等において、随時完成メイクアップ仮想画像PMを参照しながらメイクを完成させることができる。   Therefore, by this timer interrupt routine, the user can visually recognize the completed makeup virtual image PM at any point in time by touching the center of the touch panel 5. Therefore, the makeup can be completed while referring to the completed makeup virtual image PM at any time during or at the end of each makeup.

(第2の実施の形態)
前述した第1の実施の形態がユーザのタッチにより仮想メイクアップ画像を生成したのに対し、この第2の実施の形態は、ROMに予め記憶されている仮想メイクアップ画像を生成するメイクアップシミュレーションプログラムを用いて仮想メイクアップ画像を生成するようにしたものである。仮想メイクアップ画像作成モードが設定されている状態において、CPU11はROM12に格納されているプログラムに従い、図17のフローチャートに示すように処理を実行する。すなわち、撮像部4によって撮像された画像を液晶表示パネル32に転送することにより、ライブビュー画像を表示させる(ステップS401)。したがって、ユーザがDPF1に顔を正対させて着座していると、図6に示すように、表示部3の液晶表示パネル32には、ユーザの顔Fが表示される。
(Second Embodiment)
While the first embodiment described above generates a virtual makeup image by a user's touch, this second embodiment is a makeup simulation that generates a virtual makeup image stored in advance in a ROM. A virtual makeup image is generated using a program. In a state where the virtual makeup image creation mode is set, the CPU 11 executes processing as shown in the flowchart of FIG. 17 according to the program stored in the ROM 12. That is, the live view image is displayed by transferring the image captured by the imaging unit 4 to the liquid crystal display panel 32 (step S401). Therefore, when the user is seated with the face facing the DPF 1, the user's face F is displayed on the liquid crystal display panel 32 of the display unit 3 as shown in FIG. 6.

このとき、CPU11は、図6に示すように、液晶表示パネル32の一部にシャッタボタン301を表示させ、この表示させたシャッタボタン301がタッチされたか否かを判断する(ステップS402)。シャッタボタン301がタッチされたならば、撮影処理を実行して、撮像部4により撮像されている画像をRAM13に保存する(ステップS403)。   At this time, as shown in FIG. 6, the CPU 11 displays a shutter button 301 on a part of the liquid crystal display panel 32, and determines whether or not the displayed shutter button 301 is touched (step S402). If the shutter button 301 is touched, shooting processing is executed, and the image captured by the imaging unit 4 is stored in the RAM 13 (step S403).

引き続き、この撮影された顔画像をファンデーションメイクアップ処理する(ステップS404)。すなわち、前述したように、ROM12には、撮像部4で撮像した画像における顔部分の画像である顔画像を認識するための公知の顔認識プログラム、この認識した顔画像を画像処理して、メイクアップが施された仮想メイクアップ画像を生成する公知のメイクアップシミュレーションプログラムが格納されている。また、前記特許文献1には、ファンデーション、チーク、アイシャドウに毎にメイクアップシミュレーション画像を生成する技術が開示されている。したがって、ステップS403では、公知のメイクアップシミュレーションプログラムを用いて、撮影された顔画像にファンデーションのメイクアップを施す処理を実行する。そして、この処理により得られたファンデーション仮想メイクアップ画像をRAM13に記憶する(ステップS405)。   Subsequently, the photographed face image is subjected to foundation makeup processing (step S404). That is, as described above, the ROM 12 has a known face recognition program for recognizing a face image that is an image of a face portion in an image captured by the image capturing unit 4, and performs image processing on the recognized face image to make makeup A known make-up simulation program for generating a virtual make-up image that has been subjected to up is stored. Patent Document 1 discloses a technique for generating a makeup simulation image for each foundation, cheek, and eye shadow. Therefore, in step S403, a process for applying makeup on the foundation to the photographed face image is executed using a known makeup simulation program. Then, the foundation virtual makeup image obtained by this process is stored in the RAM 13 (step S405).

同様にして、顔画像をチークメイクアップ処理し(ステップS406)、これにより得られたチーク仮想メイクアップ画像をRAM13に記憶する(ステップS407)。さらに、同様にして、顔画像をアイシャドウメイクアップ処理し(ステップS408)、これにより得られたアイシャドウ仮想メイクアップ画像をRAM13に記憶する(ステップS409)。さらに、以上のファンデーション、チーク、アイシャドウ各メイクアップ処理が全て施された完成メイクアップ仮想画像をRAM13に記憶する(ステップS410)。   Similarly, the face image is subjected to a cheek makeup process (step S406), and the cheek virtual makeup image obtained thereby is stored in the RAM 13 (step S407). Further, similarly, the face image is subjected to eye shadow makeup processing (step S408), and the eye shadow virtual makeup image obtained thereby is stored in the RAM 13 (step S409). Further, the completed makeup virtual image subjected to the above-described foundation, cheek, and eyeshadow makeup processes is stored in the RAM 13 (step S410).

したがって、以上に説明した仮想メイクアップ画像作成モードが終了すると、第1の実施の形態と同様にRAM13には、少なくとも下記(1)〜(4)の画像が記憶された状態となる。
(1)ファンデーション仮想メイクアップ画像
(2)チーク仮想メイクアップ画像
(3)アイシャドウ仮想メイクアップ画像
(4)完成メイクアップ仮想画像(=アイシャドウ仮想メイクアップ画像)
Therefore, when the virtual makeup image creation mode described above is completed, at least the following images (1) to (4) are stored in the RAM 13 as in the first embodiment.
(1) Foundation virtual makeup image (2) Teak virtual makeup image (3) Eye shadow virtual makeup image (4) Completed makeup virtual image (= eye shadow virtual makeup image)

したがって、この第2の実施の形態によれば、ユーザが書き込み作業を行わずとも、(1)〜(4)の各仮想メイクアップ画像を生成して、RAM13に記憶することができる。   Therefore, according to the second embodiment, the virtual makeup images (1) to (4) can be generated and stored in the RAM 13 without the user performing a writing operation.

そして、以上に説明した仮想メイクアップ画像作成モードが終了すると、CPU11は、前述の第1の実施の形態と同様に図11に示すフローチャートに従ってメークモード処理を実行する。したがって、本実施の形態においても、ファンデーション、チーク、アイシャドウの各々のメイク種に関して、視線移動を伴うことなく画像を参照しつつメイクアップを行うことができる。よって、各メイク種のメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してしまうことを防止して、ユーザにおいて満足するような顔全体のメイクアップ結果を得ることができる。   When the virtual makeup image creation mode described above ends, the CPU 11 executes the make mode process according to the flowchart shown in FIG. 11 as in the first embodiment described above. Therefore, in the present embodiment as well, makeup can be performed while referring to the image without moving the line of sight for each makeup type of foundation, cheek, and eye shadow. Therefore, it is possible to complete the makeup in a short time without requiring time to complete the makeup of each makeup type. In addition, it is possible to prevent the end of the work with the makeup being incomplete due to the complicated movement of the line of sight, and obtain a makeup result of the entire face that satisfies the user.

また、図15に示したインタラプトルーチンも同様に実行する。したがって、ユーザは任意の時点で図18(a)に示すように、メイクアップシミュレーションプログラムにより生成された完成メイクアップ仮想画像MPMを視認することができる。また、図18(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fを写すこともできる。前記タイマーインタラプトルーチンにより、ユーザはタッチパネル5の中心部に対するタッチを行えば、任意の時点で完成メイクアップ仮想画像PMをと自己の顔Fと視認することができる。よって、各メイクの途中や終了時等において、随時完成メイクアップ仮想画像MPMを参照しながらメイクを完成させることができる。   Further, the interrupt routine shown in FIG. 15 is executed in the same manner. Therefore, the user can visually recognize the completed makeup virtual image MPM generated by the makeup simulation program as shown in FIG. Further, as shown in FIG. 18B, the user's face F can be copied to the half mirror 31 that functions as a mirror surface. If the user touches the center of the touch panel 5 by the timer interrupt routine, the user can visually recognize the completed makeup virtual image PM as his / her face F at any time. Therefore, the makeup can be completed while referring to the completed makeup virtual image MPM at any time in the middle or at the end of each makeup.

(第3の実施の形態)
本発明の第3の実施の形態は、モデルの顔にファンデーション、チーク、アイシャドウのメイクゾーンが表示されると共にメイクアップが施された画像をダウンロードして取得するようにしたものである。すなわち、配信コンテンツサーバ50には、モデルの顔にファンデーション、チーク、アイシャドウのメイクゾーンが表示されると共にメイクアップが施された画像が各々複数記憶されている。
(Third embodiment)
In the third embodiment of the present invention, makeup, such as foundation, cheek, and eyeshadow are displayed on the model face, and an image with makeup applied is downloaded and acquired. That is, the distribution content server 50 displays a makeup, cheek, and eyeshadow makeup zone on the model face, and a plurality of images each applied with makeup.

そして、仮想メイクアップ画像作成モードが設定されている状態において、DPF1のCPU11はROM12に格納されているプログラムに従い、図19のフローチャートに示すように処理を実行する。すなわち、通信制御部90を起動して、電話回線91又は無線LAN92、及びネットワークを介して配信コンテンツサーバ50に接続する(ステップS501)。   Then, in a state where the virtual make-up image creation mode is set, the CPU 11 of the DPF 1 executes processing as shown in the flowchart of FIG. 19 according to the program stored in the ROM 12. That is, the communication control unit 90 is activated and connected to the distribution content server 50 via the telephone line 91 or the wireless LAN 92 and the network (step S501).

次に、配信コンテンツサーバ50に記憶されているファンデーションメイクアップ画像をダウンロードし、RAM13に記憶する(ステップS502)。このとき、配信コンテンツサーバ50には、異なるモデルに異なるファンデーションを施して撮影した複数のファンデーションメイクアップ画像が記憶されており、ユーザはこれらから自己の顔に合った所望のファンデーションメイクアップ画像を選択する。   Next, the foundation makeup image stored in the distribution content server 50 is downloaded and stored in the RAM 13 (step S502). At this time, the distribution content server 50 stores a plurality of foundation makeup images taken by applying different foundations to different models, and the user selects a desired foundation makeup image that matches his / her face from these. To do.

以下同様にして、配信コンテンツサーバ50に記憶されているチークメイクアップ画像をダウンロードして、RAM13に記憶し(ステップS503)、アイシャドウメイクアップ画像をダウンロードして、RAM13に記憶する(ステップS504)。さらに、以上のファンデーション、チーク、アイシャドウ各メイクアップ処理が全て施された完成メイクアップ仮想画像をRAM13に記憶する(ステップS505)。   Similarly, the cheek makeup image stored in the distribution content server 50 is downloaded and stored in the RAM 13 (step S503), and the eye shadow makeup image is downloaded and stored in the RAM 13 (step S504). . Further, the completed makeup virtual image subjected to the above-described foundation, cheek, and eyeshadow makeup processes is stored in the RAM 13 (step S505).

したがって、以上に説明した仮想メイクアップ画像作成モードが終了すると、第1の実施の形態と同様にRAM13には、少なくとも下記(1)〜(4)の画像が記憶された状態となる。
(1)ファンデーションメイクアップ画像
(2)チークメイクアップ画像
(3)アイシャドウメイクアップ画像
(4)完成メイクアップ画像(=アイシャドウメイクアップ画像)
Therefore, when the virtual makeup image creation mode described above is completed, at least the following images (1) to (4) are stored in the RAM 13 as in the first embodiment.
(1) Foundation makeup image (2) Cheek makeup image (3) Eye shadow makeup image (4) Completed makeup image (= eye shadow makeup image)

したがって、この第3の実施の形態によれば、ユーザが書き込み作業を行わずとも、(1)〜(4)の各仮想メイクアップ画像を生成して、RAM13に記憶することができる。   Therefore, according to the third embodiment, the virtual makeup images (1) to (4) can be generated and stored in the RAM 13 without the user performing a writing operation.

したがって、この第3の実施の形態によれば、ユーザが書き込み作業を行わずとも、(1)〜(4)のモデルによる理想的な各メイクアップ画像を取得して、RAM13に記憶することができる。   Therefore, according to the third embodiment, ideal makeup images based on the models (1) to (4) can be acquired and stored in the RAM 13 without the user performing a writing operation. it can.

そして、以上に説明した仮想メイクアップ画像作成モードが終了すると、CPU11は、前述の第1の実施の形態と同様に図11に示すフローチャートに従ってメークモード処理を実行する。したがって、本実施の形態においても、ファンデーション、チーク、アイシャドウの各々のメイク種に関して、視線移動を伴うことなく画像を参照しつつメイクアップを行うことができる。よって、各メイク種のメイクアップの完了までに時間を要することがなく短時間でメイクアップを完了することができる。また、視線移動の煩雑さに起因してメイクアップが不完全なままで作業を終了してまうことを防止して、ユーザにおいて満足するような顔全体のメイクアップ結果を得ることができる。   When the virtual makeup image creation mode described above ends, the CPU 11 executes the make mode process according to the flowchart shown in FIG. 11 as in the first embodiment described above. Therefore, in the present embodiment as well, makeup can be performed while referring to the image without moving the line of sight for each makeup type of foundation, cheek, and eye shadow. Therefore, it is possible to complete the makeup in a short time without requiring time to complete the makeup of each makeup type. In addition, it is possible to prevent the makeup from being finished with incomplete makeup due to the complicated movement of the line of sight, and obtain a makeup result for the entire face that satisfies the user.

しかも、本実施の形態においては、モデルの顔にメイクアップが施された理想的なメイクアップ画像を参照しながら、メイクアップを行うことができる。   Moreover, in the present embodiment, makeup can be performed while referring to an ideal makeup image in which makeup is applied to the model face.

また、図15に示したインタラプトルーチンも同様に実行する。したがって、ユーザは任意の時点で図20(a)に示すように、モデルの顔を撮影した完成メイクアップ画像PPMを視認することができる。また、図20(b)に示すように、鏡面として機能したハーフミラー31にユーザの顔Fを写すこともできる。前記タイマーインタラプトルーチンにより、ユーザはタッチパネル5の中心部に対するタッチを行えば、任意の時点で完成メイクアップ仮想画像PMをと自己の顔Fと視認することができる。よって、各メイクの途中や終了時等において、随時モデルの完成メイクアップ画像PPMを参照しながらメイクを完成させることができる。   Further, the interrupt routine shown in FIG. 15 is executed in the same manner. Therefore, the user can visually recognize the completed makeup image PPM obtained by photographing the model face as shown in FIG. In addition, as shown in FIG. 20B, the user's face F can be copied to the half mirror 31 that functions as a mirror surface. If the user touches the center of the touch panel 5 by the timer interrupt routine, the user can visually recognize the completed makeup virtual image PM as his / her face F at any time. Therefore, the makeup can be completed while referring to the completed makeup image PPM of the model at any time in the middle or at the end of each makeup.

なお、実施の形態においては、メイクアップの段階や部位に応じた種別毎にメイクアップが施されたファンデーション、チーク、アイシャドウの各々画像を用いるようにした。しかし、このようにメイクアップの段階や部位に応じた種別毎の画像を用いることなく、ファンデーション、チーク、アイシャドウが全て施された単一の画像を用いるようにしてもよい。   In the embodiment, the foundation, cheek, and eye shadow images each having makeup applied for each type corresponding to the stage and part of makeup are used. However, a single image in which foundation, cheek, and eye shadow are all applied may be used without using an image for each type according to the makeup stage and site.

1 DPF
2 本体
3 表示部
4 撮像部
5 タッチパネル
11 CPU
12 ROM
13 RAM
16 表示制御部
30 通信制御部
31 ハーフミラー
32 液晶表示パネル
33 バックライト
40 バックアップサーバ
41 レンズブロック
42 ズームモータ
43 タイミング発生器
44 モータードライバ
45 CCD
46 水平ドライバ
47 ユニット回路
48 DSP
50 配信コンテンツサーバ
301 シャッタボタン
302 ガイド文字列
303 完了ボタン
411 ズームレンズ
FM ファンデーション仮想メイクアップ画像
FP 顔画像
MZ メイクゾーン
1 DPF
2 Main body 3 Display unit 4 Imaging unit 5 Touch panel 11 CPU
12 ROM
13 RAM
DESCRIPTION OF SYMBOLS 16 Display control part 30 Communication control part 31 Half mirror 32 Liquid crystal display panel 33 Backlight 40 Backup server 41 Lens block 42 Zoom motor 43 Timing generator 44 Motor driver 45 CCD
46 Horizontal driver 47 Unit circuit 48 DSP
50 distribution content server 301 shutter button 302 guide character string 303 completion button 411 zoom lens FM foundation virtual makeup image FP face image MZ makeup zone

Claims (7)

画面に画像を表示する表示パネルと、
メイクアップが施されたメイクアップ画像を記憶する記憶回路と、
前記記憶回路に記憶されているメイクアップ画像を前記表示パネルの前記画面に表示する表示モードと、前記表示パネルの前記画面に前記メイクアップ画像を表示することなく前記表示パネルの前記画面を鏡面状態にする鏡面モードと、を切り替える表示制御回路と、
を備えることを特徴とする画像表示装置。
A display panel that displays images on the screen;
A storage circuit for storing a makeup image on which makeup has been applied;
A display mode in which the makeup image stored in the storage circuit is displayed on the screen of the display panel; and the screen of the display panel is mirrored without displaying the makeup image on the screen of the display panel. A display control circuit for switching between the mirror surface mode to be
An image display device comprising:
前記メイクアップ画像は、ユーザの顔画像に画像メイクアップ処理が施された画像であることを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the makeup image is an image obtained by performing an image makeup process on a face image of a user. 前記メイクアップ画像は、ユーザ以外の顔画像に画像メイクアップ処理が施された画像であることを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the makeup image is an image obtained by performing image makeup processing on a face image other than the user. 前記記憶回路は、メイクアップの段階や部位に応じた種別毎にメイクアップが施された複数種の前記メイクアップ画像を記憶し、
前記表示制御回路は、前記表示モードにおいて前記記憶回路に記憶されている複数種の前記メイクアップ画像を表示させることを特徴とする請求項1乃至3の何れか一項に記載の画像表示装置。
The storage circuit stores a plurality of types of the makeup images subjected to makeup for each type according to the stage and part of makeup,
4. The image display device according to claim 1, wherein the display control circuit displays a plurality of types of makeup images stored in the storage circuit in the display mode. 5.
前記表示制御回路により切り換えられる表示モードと鏡面モードとの時間間隔が異なることを特徴とする請求項1乃至4の何れか一項に記載の画像表示装置。   5. The image display device according to claim 1, wherein a time interval between the display mode switched by the display control circuit and the specular mode is different. 前記鏡面モードの時間が前記表示モードの時間よりも長いことを特徴とする請求項5記載の画像表示装置。   6. The image display device according to claim 5, wherein a time in the mirror surface mode is longer than a time in the display mode. 記憶回路に記憶されているメイクアップ画像を表示パネルの画面に表示する表示ステップと、
前記表示ステップの前、後の少なくとも一方に、前記メイクアップ画像を表示することなく前記表示パネルの前記画面を鏡面状態にする鏡面ステップと、
を含むことを特徴とする画像表示方法。
A display step for displaying the makeup image stored in the storage circuit on the screen of the display panel;
Mirror surface step for making the screen of the display panel into a mirror surface state without displaying the makeup image on at least one of the display step before and after,
An image display method comprising:
JP2010222117A 2010-09-30 2010-09-30 Image display device and image display method Pending JP2012078469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010222117A JP2012078469A (en) 2010-09-30 2010-09-30 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010222117A JP2012078469A (en) 2010-09-30 2010-09-30 Image display device and image display method

Publications (1)

Publication Number Publication Date
JP2012078469A true JP2012078469A (en) 2012-04-19

Family

ID=46238815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010222117A Pending JP2012078469A (en) 2010-09-30 2010-09-30 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP2012078469A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141350A1 (en) * 2014-03-19 2015-09-24 シャープ株式会社 Mirror display and electronic device
CN107361564A (en) * 2017-07-17 2017-11-21 深圳前海维度新科有限公司 Can virtual makeup automatically smart mirror system
JP2019037742A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and lip-makeup analysis method thereof
CN113993417A (en) * 2019-05-06 2022-01-28 凯尔Os公司 Intelligent mirror subsystem and using method thereof
JP2022047886A (en) * 2020-09-14 2022-03-25 宏 ▲高▼木 Management server and system
CN120339472A (en) * 2025-03-28 2025-07-18 山东科技大学 A realistic makeup transfer method for 3D animatable avatars based on diffusion model

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141350A1 (en) * 2014-03-19 2015-09-24 シャープ株式会社 Mirror display and electronic device
CN107361564A (en) * 2017-07-17 2017-11-21 深圳前海维度新科有限公司 Can virtual makeup automatically smart mirror system
JP2019037742A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and lip-makeup analysis method thereof
CN113993417A (en) * 2019-05-06 2022-01-28 凯尔Os公司 Intelligent mirror subsystem and using method thereof
JP2022531477A (en) * 2019-05-06 2022-07-06 カレオス Smart mirror system and how to use it
JP7538148B2 (en) 2019-05-06 2024-08-21 カレオス Smart mirror system and method of use thereof
JP2022047886A (en) * 2020-09-14 2022-03-25 宏 ▲高▼木 Management server and system
CN120339472A (en) * 2025-03-28 2025-07-18 山东科技大学 A realistic makeup transfer method for 3D animatable avatars based on diffusion model

Similar Documents

Publication Publication Date Title
CN101364029B (en) Image capturing apparatus and control method therefor
CN101115113B (en) Photographing apparatus and photographing method
RU2543950C2 (en) Image forming apparatus and control method therefor
CN103945131A (en) Electronic device and image acquisition method
JP2012078469A (en) Image display device and image display method
US8502883B2 (en) Photographing apparatus and photographing control method
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
CN113301247A (en) Voice input device, control method thereof and storage medium
CN104869283B (en) A kind of image pickup method and electronic equipment
JP2010097393A (en) Image display device and program
JP2020178273A (en) Display control device and its control method
JP5777446B2 (en) Display control apparatus and control method thereof
JP2015119259A (en) Display controller, control method and program for the same, and storage medium
JP5075288B2 (en) Imaging apparatus and control method thereof
WO2019073790A1 (en) Display control device and control method therefor
JP7497196B2 (en) Display device, control method thereof, program, and storage medium
JP4765909B2 (en) Imaging apparatus, group member determination method and program
JP7791284B2 (en) Imaging device
JP2021124613A (en) Voice input device and its control method and program
JP2011198178A (en) Electronic device
JP2012124805A (en) Image display device and image display method
JP2018180455A (en) Imaging control apparatus and control method thereof
JP2008136074A (en) Camera and photography program
CN120676250A (en) Patterning method, electronic device, chip system, storage medium, and product