[go: up one dir, main page]

JP2011198178A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2011198178A
JP2011198178A JP2010065510A JP2010065510A JP2011198178A JP 2011198178 A JP2011198178 A JP 2011198178A JP 2010065510 A JP2010065510 A JP 2010065510A JP 2010065510 A JP2010065510 A JP 2010065510A JP 2011198178 A JP2011198178 A JP 2011198178A
Authority
JP
Japan
Prior art keywords
image
unit
appearance
determination
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010065510A
Other languages
Japanese (ja)
Inventor
Takahiro Ishikawa
貴博 石川
Yasuo Kitsugi
康雄 木次
Takehisa Fukushima
岳寿 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010065510A priority Critical patent/JP2011198178A/en
Publication of JP2011198178A publication Critical patent/JP2011198178A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】使用者に身だしなみの判定結果を通知する電子機器を提供する。
【解決手段】人物を撮影する撮影部と、前記撮影部で撮影した前記人物の画像に基づいて前記人物の身だしなみを判定する判定部と、前記判定部による判定に基づいて判定結果を通知する通知部とを備える。前記人物の身だしなみの判定は、事前に前記撮影部で撮影した前記人物の理想の身だしなみ画像と前記撮影部で撮影した前記人物の現在の画像との類似度を閾値と比較することで行う。
【選択図】図2
An electronic device for notifying a user of a result of appearance determination is provided.
An imaging unit that captures a person, a determination unit that determines the appearance of the person based on an image of the person captured by the imaging unit, and a notification that notifies a determination result based on the determination by the determination unit A part. The appearance of the person is determined by comparing the similarity between the ideal appearance image of the person photographed in advance by the photographing unit and the current image of the person photographed by the photographing unit with a threshold value.
[Selection] Figure 2

Description

本発明は、電子機器に関するものである。   The present invention relates to an electronic device.

従来、テレビジョン受像機の表示画面を利用して使用者のメイクを可能とするメイク機能付きテレビジョン受像機が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a television receiver with a makeup function that enables a user to make up using a display screen of a television receiver is known (see, for example, Patent Document 1).

特開平11−112970号公報JP-A-11-112970

しかし、上述のテレビジョン受像機は、使用者がメイクを行う際の参考として使用することができても、使用者が行ったメイクの良否を判定することはできなかった。   However, even if the above-described television receiver can be used as a reference when the user performs makeup, the quality of the makeup performed by the user cannot be determined.

本発明の目的は、使用者に身だしなみの判定結果を通知する電子機器を提供することである。   The objective of this invention is providing the electronic device which notifies a user the determination result of appearance.

本発明の電子機器は、人物を撮影する撮影部と、前記撮影部で撮影した前記人物の画像に基づいて前記人物の身だしなみを判定する判定部と、前記判定部による判定に基づいて判定結果を通知する通知部とを備えることを特徴とする。   An electronic apparatus according to the present invention includes a photographing unit that photographs a person, a determination unit that determines the appearance of the person based on an image of the person captured by the photographing unit, and a determination result based on the determination by the determination unit. And a notification unit for notifying.

本発明の電子機器によれば、使用者に身だしなみの判定結果を通知することができる。   According to the electronic device of the present invention, it is possible to notify the user of the result of appearance determination.

実施の形態に係るデジタルフォトフレームの前面を示す斜視図である。It is a perspective view which shows the front surface of the digital photo frame which concerns on embodiment. 実施の形態に係るデジタルフォトフレームのシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of a digital photo frame according to an embodiment. FIG. 実施の形態に係るデジタルフォトフレームの処理を示すフローチャートである。It is a flowchart which shows the process of the digital photo frame which concerns on embodiment. 実施の形態に係るデジタルフォトフレームにおける通知処理を示すフローチャートである。It is a flowchart which shows the notification process in the digital photo frame which concerns on embodiment. 実施の形態に係るデジタルフォトフレームにおいて表示する画像を示す図である。It is a figure which shows the image displayed in the digital photo frame which concerns on embodiment.

以下、図面を参照して本発明の実施の形態に係るデジタルフォトフレーム(以下、DPFという。)について説明する。なお、一般に、DPFとしては机等の上に立て掛けて設置するものや、壁に掛けて設置するもの等が存在するが、本発明の実施の形態としては、机等に立て掛けて設置するもの(電子写真立て)を例にして説明する。   A digital photo frame (hereinafter referred to as DPF) according to an embodiment of the present invention will be described below with reference to the drawings. In general, there are DPFs that are installed on a desk or the like, and those that are installed on a wall. However, as an embodiment of the present invention, the DPF is installed on a desk or the like ( A description will be given using an example of an electronic photo frame.

図1は、本発明の実施の形態に係るDPFの外観を示す斜視図である。DPF2は、ガラスやプラスチック等からなる装置本体4を備え、装置本体4の前面には、画像やメニュー画面等が電気的に表示される表示部としてのLCDパネル6、使用者を撮影するためのカメラ10、音声等が出力されるスピーカ12及びDPF2の操作用リモコン(図示せず)から出力される赤外線を検出する赤外線検出部14が設けられている。   FIG. 1 is a perspective view showing an appearance of a DPF according to an embodiment of the present invention. The DPF 2 includes an apparatus main body 4 made of glass, plastic, or the like, and an LCD panel 6 serving as a display unit on which an image, a menu screen, etc. are electrically displayed on the front surface of the apparatus main body 4, for photographing a user An infrared detector 14 for detecting infrared rays output from the camera 10, a speaker 12 that outputs sound and the like, and a remote controller (not shown) for operating the DPF 2 is provided.

また、装置本体4の上面には、DPF2の電源のオン/オフを切り替える電源スイッチ16、DPF2の機能設定やLCDパネル6の表示設定の際に使用する操作キー18、カメラ10に対して撮影指示を行うシャッタボタン20が設けられている。また、装置本体4の一方の側面には、画像や音声等のデータが記憶されたメモリカード22が挿入されるメモリカードスロット24、USB機器が接続されるUSBポート26及びイーサネット(登録商標)規格等のネットワークケーブルが接続されるネットワーク端子28が設けられている。   Further, on the upper surface of the apparatus main body 4, a power switch 16 for switching on / off the power of the DPF 2, an operation key 18 used for setting functions of the DPF 2 and display settings of the LCD panel 6, and a shooting instruction for the camera 10. A shutter button 20 for performing the above is provided. Also, on one side of the apparatus body 4, a memory card slot 24 into which a memory card 22 storing data such as images and sounds is inserted, a USB port 26 to which a USB device is connected, and an Ethernet (registered trademark) standard. A network terminal 28 to which a network cable such as is connected is provided.

図2は、実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2の各部を統括的に制御するCPU30には、上述の赤外線検出部14、操作部19、メモリカードスロット24、USBポート26及びネットワーク端子28が接続されている。ここで、操作部19は、電源スイッチ16、操作キー18、シャッタボタン20、メニュー画面の表示を指示するメニューボタン(図示せず)、メニュー画面により選択した項目の設定等を指示するOKボタン(図示せず)等を備えている。   FIG. 2 is a block diagram illustrating a system configuration of the DPF according to the embodiment. The above-described infrared detection unit 14, operation unit 19, memory card slot 24, USB port 26, and network terminal 28 are connected to the CPU 30 that comprehensively controls each unit of the DPF 2. Here, the operation unit 19 includes a power switch 16, an operation key 18, a shutter button 20, a menu button (not shown) for instructing display of a menu screen, and an OK button (instruction for setting an item selected on the menu screen). (Not shown).

また、CPU30には、画像や音声等のデータが記憶される内部メモリ32、LCDパネル6に表示される画像や情報等の表示制御を行なう表示制御部34、スピーカ12から出力される音声等の再生制御を行なう再生制御部36、カメラ10で撮影した画像の画像データに色彩変更等の画像処理を行う画像変更部38、カメラ10、カメラ10から出力された撮影信号を図示しないA/D変換部においてA/D変換することにより生成された画像データを一時的に記憶する画像メモリ42、LCDパネル6の表示設定、制御等を行うためのプログラムを格納するプログラムメモリ44が接続されている。   The CPU 30 also includes an internal memory 32 that stores data such as images and sounds, a display control unit 34 that performs display control of images and information displayed on the LCD panel 6, and sounds that are output from the speaker 12. A reproduction control unit 36 that performs reproduction control, an image change unit 38 that performs image processing such as color change on image data of an image captured by the camera 10, an A / D conversion (not shown), and a shooting signal output from the camera 10 An image memory 42 that temporarily stores image data generated by A / D conversion in the unit and a program memory 44 that stores a program for performing display setting, control, and the like of the LCD panel 6 are connected.

次に、図3に示すフローチャートを参照して実施の形態に係るDPFにおける処理について説明する。まず、電源スイッチ16がオンされ、メニューボタンが押下されると、CPU30は、プログラムメモリ44に記憶されているメニュー画面の画像データを読み出し、メニュー画面の画像をLCDパネル6に表示する。次に、操作キー18が操作されることによりメニュー画面において、後述する身だしなみの判定基準となる画像データを取得する判定基準取得モードが選択され、OKボタンが押下されると、CPU30は、メモリカード22から判定基準となる画像データを読み出して内部メモリ32に記憶する(ステップS1)。ここで、判定基準となる画像データとしては、使用者が事前に身だしなみを整えてカメラ10で撮影した使用者自身の画像(以下、理想の身だしなみの画像という。)の画像データが用いられる。なお、理想の身だしなみとは、化粧、髪型、髭のそり具合、眉の形、顔の表情、服装等について使用者が外出時にそうなっていて欲しいと考える身だしなみのことをいう。   Next, processing in the DPF according to the embodiment will be described with reference to the flowchart shown in FIG. First, when the power switch 16 is turned on and the menu button is pressed, the CPU 30 reads the menu screen image data stored in the program memory 44 and displays the menu screen image on the LCD panel 6. Next, when the operation key 18 is operated, a determination criterion acquisition mode for acquiring image data, which will be described later, is selected on the menu screen, and when the OK button is pressed, the CPU 30 stores the memory card. Image data serving as a determination criterion is read from 22 and stored in the internal memory 32 (step S1). Here, as the image data serving as a determination criterion, image data of a user's own image (hereinafter, referred to as an ideal appearance image) captured by the camera 10 with the appearance adjusted in advance is used. The ideal appearance refers to the appearance that the user wants to have when they go out, such as makeup, hairstyle, sledge of the eyelids, eyebrows, facial expressions, clothes, etc.

次に、メニュー画面において操作キー18が操作されてカメラ10により使用者の撮影を行う撮影モードが選択され、OKボタンが押下されると、CPU30は、DPF2を撮影モードに設定する。次に、撮影モードに設定された状態でシャッタボタン20が押下されることにより、カメラ10による使用者の現在の姿の撮影が行われ(ステップS2)、撮影された使用者の現在の顔の画像の画像データは画像メモリ42に記憶される。ここで、使用者の現在の姿の撮影は、理想の身だしなみの画像と同様の構図で行うものとする。例えば、撮影モードが設定されると、CPU30は、内部メモリ32から理想の身だしなみの画像の画像データ読み出し、理想の身だしなみの画像を表示制御部34を介してLCDパネル6の左面に表示する。同時に、CPU30は、カメラ10により使用者の現在の姿の動画撮影を開始し、撮影された被写体のライブビュー画像を表示制御部34を介してLCDパネル6の右面に表示する。使用者は、LCDパネル6の左面に表示された理想の身だしなみの画像を確認しながら、LCDパネル6の右面に表示されるライブビュー画像を調整し、現在の姿の顔の大きさ、向き、眼や鼻の位置などの画像の構図を理想の身だしなみの画像に合わせてシャッタボタン20を押下して現在の姿の撮影を行う。   Next, when the operation key 18 is operated on the menu screen and the camera 10 selects a shooting mode for shooting the user, and the OK button is pressed, the CPU 30 sets the DPF 2 to the shooting mode. Next, when the shutter button 20 is pressed in the state where the photographing mode is set, the user 10 is photographed by the camera 10 (step S2), and the current face of the photographed user is photographed. Image data of the image is stored in the image memory 42. Here, it is assumed that photographing of the user's current appearance is performed with the same composition as that of an ideal appearance image. For example, when the shooting mode is set, the CPU 30 reads out image data of an ideally dressed image from the internal memory 32 and displays the ideally dressed image on the left surface of the LCD panel 6 via the display control unit 34. At the same time, the CPU 30 starts shooting a moving image of the current state of the user by the camera 10 and displays a live view image of the shot subject on the right surface of the LCD panel 6 via the display control unit 34. The user adjusts the live view image displayed on the right side of the LCD panel 6 while confirming the ideal appearance image displayed on the left side of the LCD panel 6, and adjusts the size, orientation, The composition of the image, such as the position of the eyes and nose, is adjusted to the ideal appearance image, and the shutter button 20 is pressed to take a picture of the current figure.

次に、CPU30は、使用者の現在の顔の画像と理想の身だしなみの画像との相違する部分(以下、相違する部分という。)の特定を行う(ステップS3)。即ち、まず、CPU30は、画像メモリ42から使用者の現在の顔の画像の画像データを読み出し、内部メモリ32から理想の顔の画像の画像データを読み出して、現在の顔の画像と理想の身だしなみの画像とを比較し、顔の所定のスポット(例えば、眉、髪、頬、眼等)における色彩の類似度(以下、類似度という。)を計測する。例えば、所定のスポットにおける画素同士を比較し、画素間における色彩の相違を検知することにより行う。なお、類似度は、眉における類似度70%、髪における類似度10%、頬における類似度50%、眼における類似度40%等のように計測する。   Next, the CPU 30 identifies a different portion (hereinafter, referred to as a different portion) between the user's current face image and an ideal appearance image (step S3). That is, first, the CPU 30 reads out the image data of the current face image of the user from the image memory 42, reads out the image data of the ideal face image from the internal memory 32, and reads out the current face image and the ideal appearance. And a color similarity (hereinafter referred to as similarity) at a predetermined spot on the face (for example, eyebrows, hair, cheeks, eyes, etc.) is measured. For example, it is performed by comparing pixels in a predetermined spot and detecting a color difference between the pixels. Note that the similarity is measured as 70% similarity in eyebrows, 10% similarity in hair, 50% similarity in cheeks, 40% similarity in eyes, and the like.

次に、CPU30は、計測した類似度を予め設定されている所定の閾値と比較し、類似度が予め設定されている所定の閾値以下であるスポットを相違する部分として特定する。例えば、類似度30%が閾値として設定されている場合において、眉における類似度が70%、髪における類似度が10%、頬における類似度が50%、眼における類似度が40%である場合、CPU30は、髪の部分を相違する部分として特定する。ここで、類似度の閾値については使用者が任意に設定することができる。   Next, the CPU 30 compares the measured similarity with a predetermined threshold that is set in advance, and identifies a spot whose similarity is equal to or less than the predetermined threshold that is set as a different part. For example, in the case where 30% similarity is set as the threshold, the similarity in the eyebrows is 70%, the similarity in the hair is 10%, the similarity in the cheek is 50%, and the similarity in the eyes is 40% The CPU 30 identifies the hair part as a different part. Here, the user can arbitrarily set the similarity threshold.

次に、CPU30は、相違する部分に基づいて使用者の身だしなみの判定を行う(ステップS4)。即ち、相違する部分の身だしなみを不十分であると判定し、それ以外の所定のスポットについては身だしなみを十分であると判定する。身だしなみの判定を行った後、CPU30は、使用者に対して身だしなみの判定結果を通知する(ステップS5)。   Next, the CPU 30 determines the appearance of the user based on the different parts (step S4). That is, it is determined that the appearance of the different parts is insufficient, and it is determined that the appearance is sufficient for other predetermined spots. After determining the appearance, the CPU 30 notifies the user of the determination result of the appearance (step S5).

次に、図4に示すフローチャートを参照して実施の形態に係るDPF2における身だしなみの判定結果の通知処理について説明する。ここで、判定結果の通知方法は、事前に使用者により設定されているものとする。まず、身だしなみの判定が完了すると(ステップS4)、CPU30は、画像表示により身だしなみの判定結果の通知を行う画像表示モードが設定されているか否かの判定を行う(ステップS11)。画像表示モードが設定されていない場合(ステップS11:NO)、CPU30は、音声により身だしなみの判定結果の通知を行う音声モードを設定し、所定の音声を再生制御部36を介してスピーカ12から出力する(ステップS12)。例えば、身だしなみの判定結果に対応する音声の音声データを予め内部メモリ32に記憶しておき、CPU30は、音声モードを設定すると、内部メモリ32から身だしなみの判定結果に対応する音声データを読み出し、音声データに基づく音声をスピーカ12から出力する。具体的には、ステップS4において、髪についての身だしなみは不十分であり、眉、頬、眼についての身だしなみは十分であると判定された場合には、CPU30は、“髪型を整えてください。”という音声の音声データを内部メモリ32から読み出し、スピーカ12から音声データに基づく音声を出力する。   Next, with reference to the flowchart shown in FIG. 4, the notification process of the appearance determination result in the DPF 2 according to the embodiment will be described. Here, the determination result notification method is set in advance by the user. First, when the appearance determination is completed (step S4), the CPU 30 determines whether or not the image display mode for notifying the appearance determination result by image display is set (step S11). When the image display mode is not set (step S11: NO), the CPU 30 sets a sound mode for notifying the appearance determination result by sound and outputs a predetermined sound from the speaker 12 via the reproduction control unit 36. (Step S12). For example, sound data corresponding to the appearance determination result is stored in the internal memory 32 in advance, and when the sound mode is set, the CPU 30 reads out sound data corresponding to the appearance determination result from the internal memory 32, Audio based on the data is output from the speaker 12. Specifically, if it is determined in step S4 that the appearance of hair is insufficient and the appearance of eyebrows, cheeks, and eyes is sufficient, the CPU 30 “prepares the hairstyle”. Is read from the internal memory 32, and a sound based on the sound data is output from the speaker 12.

一方、画像表示モードが設定されている場合には(ステップS11:YES)、CPU30は、使用者の現在の顔の画像において相違する部分の色彩を変更することにより身だしなみの判定結果の通知を行う色彩変更モードが設定されているか否かの判定を行う(ステップS13)。色彩変更モードが設定されている場合には(ステップS13:YES)、CPU30は、画像変更部38において使用者の現在の顔の画像の画像データに対して相違する部分の色彩を変更する補正を行い、補正した画像データに基づく画像を理想の身だしなみの画像と共にLCDパネル6に表示する(ステップS14)。例えば、髪についての身だしなみは不十分であり、眉、頬、眼についての身だしなみは十分である場合には、図5に示すように、使用者の現在の顔の画像において髪の部分の色彩を変更した画像(右に示す図)を理想の身だしなみの画像(左に示す図)の隣に表示する。なお、身だしなみについて相違する部分が複数存在する場合には、全ての相違する部分の色彩を変更してLCDパネル6に表示する。   On the other hand, when the image display mode is set (step S11: YES), the CPU 30 notifies the appearance determination result by changing the color of a different portion in the current face image of the user. It is determined whether or not the color change mode is set (step S13). When the color change mode is set (step S13: YES), the CPU 30 performs correction for changing the color of a different portion with respect to the image data of the current face image of the user in the image changing unit 38. Then, an image based on the corrected image data is displayed on the LCD panel 6 together with an ideal appearance image (step S14). For example, if the appearance of hair is insufficient and the appearance of eyebrows, cheeks, and eyes is sufficient, as shown in FIG. 5, the color of the hair portion in the image of the user's current face is changed. The changed image (shown on the right) is displayed next to the ideal appearance image (shown on the left). If there are a plurality of parts that differ in appearance, the colors of all the different parts are changed and displayed on the LCD panel 6.

色彩変更モードが設定されていない場合には(ステップS13:NO)、CPU30は、相違する部分を反転表示することにより身だしなみの判定結果の通知を行う反転表示モードが設定されているか否かの判定を行う(ステップS15)。反転表示モードが設定されている場合には(ステップS15:YES)、CPU30は、画像変更部38において使用者の現在の顔の画像の画像データに対して相違する部分を反転表示する補正を行い、補正した画像データに基づく画像を理想の身だしなみの画像と共にLCDパネル6に表示する(ステップS16)。例えば、髪についての身だしなみは不十分であり、眉、頬、眼についての身だしなみは十分であると判定された場合には、使用者の現在の顔の画像において髪を反転表示した画像を理想の身だしなみの画像の隣に表示する。   When the color change mode is not set (step S13: NO), the CPU 30 determines whether or not the reverse display mode for notifying the appearance determination result by displaying different portions in reverse is set. Is performed (step S15). When the reverse display mode is set (step S15: YES), the CPU 30 performs a correction to reversely display a different portion of the image data of the current face image of the user in the image changing unit 38. Then, an image based on the corrected image data is displayed on the LCD panel 6 together with an ideal appearance image (step S16). For example, if it is determined that the appearance of the hair is insufficient and the appearance of the eyebrows, cheeks, and eyes is sufficient, an image with the hair highlighted in the image of the user's current face is ideal. Display next to the dressed-up image.

反転表示モードが設定されていない場合には(ステップS15:NO)、CPU30は、相違する部分を点滅させることにより身だしなみの判定結果の通知を行う点滅モードが設定されているか否かの判定を行う(ステップS17)。点滅モードが設定されている場合には(ステップS17:YES)、CPU30は、画像変更部38において使用者の現在の顔の画像の画像データに対して相違する部分について点滅させるように設定し、画像データに基づく画像を理想の身だしなみの画像と共にLCDパネル6に表示する(ステップS18)。例えば、髪についての身だしなみは不十分であり、眉、頬、眼についての身だしなみは十分であると判定された場合には、使用者の現在の顔の画像において髪を点滅させた画像を理想の身だしなみの画像の隣に表示する。   When the reverse display mode is not set (step S15: NO), the CPU 30 determines whether or not the flashing mode for notifying the appearance determination result is set by flashing different portions. (Step S17). When the blinking mode is set (step S17: YES), the CPU 30 sets the image changing unit 38 to blink the portion that is different from the image data of the current face image of the user, An image based on the image data is displayed on the LCD panel 6 together with an image of an ideal appearance (step S18). For example, if it is determined that the appearance of the hair is insufficient and the appearance of the eyebrows, cheeks, and eyes is sufficient, an image of blinking hair in the current face image of the user is ideal. Display next to the dressed-up image.

点滅モードが設定されていない場合には(ステップS17:NO)、CPU30は、相違する部分を拡大表示することにより身だしなみの判定結果の通知を行うズームモードを設定し、画像変更部38において使用者の現在の顔の画像の画像データに対して相違する部分について拡大して表示する補正を行い、補正した画像データに基づく画像を理想の身だしなみの画像と共にLCDパネル6に表示する(ステップS19)。例えば、髪についての身だしなみは不十分であり、眉、頬、眼についての身だしなみは十分であると判定された場合には、使用者の現在の顔の画像において髪の部分を拡大した画像を理想の身だしなみの画像の隣に表示する。   When the blinking mode is not set (step S17: NO), the CPU 30 sets a zoom mode for notifying the appearance determination result by enlarging and displaying a different part, and the user is changed in the image changing unit 38. The image data of the current face image is corrected so as to be enlarged and displayed on a different part, and an image based on the corrected image data is displayed on the LCD panel 6 together with an ideal appearance image (step S19). For example, if it is determined that the appearance of the hair is insufficient and the appearance of the eyebrows, cheeks, and eyes is sufficient, an image that enlarges the hair in the user's current facial image is ideal. It is displayed next to the appearance image.

この実施の形態に係るDPF2によれば、カメラ10で撮影した使用者の現在の顔の画像と、予め撮影しておいた理想の身だしなみの画像とを比較し、画像の相違する部分を使用者に通知することにより、使用者に身だしなみの判定結果を通知することができる。また、相違する部分を補正してLCDパネル6に表示することにより、身だしなみの判定結果を視覚的に通知することができる。また、使用者は、事前に身だしなみの判定結果の通知方法を設定することにより、自分に合った方法で判定結果の通知を受けることができる。また、視覚的な通知の他に、CPU30の指示に基く再生制御部36の制御によりスピーカ12から音声を出力させることにより、身だしなみの判定結果を通知することができる。   According to the DPF 2 according to this embodiment, the user's current face image photographed by the camera 10 is compared with an ideal appearance image photographed in advance, and different portions of the image are represented by the user. By notifying the user, it is possible to notify the user of the appearance determination result. Further, by correcting different parts and displaying them on the LCD panel 6, it is possible to visually notify the judgment result of appearance. In addition, the user can receive notification of the determination result by a method suitable for himself / herself by setting a notification method of the determination result of appearance. In addition to visual notification, the appearance determination result can be notified by outputting sound from the speaker 12 under the control of the reproduction control unit 36 based on an instruction from the CPU 30.

また、上述の実施の形態においては、身だしなみの判定として、使用者が髪型を整える場合などを想定して説明しているが、それ以外の場合について身だしなみの判定を行ってもよい。例えば、使用者の現在の笑顔の画像と、理想の笑顔の画像とを比較し、現在の笑顔の画像において相違する部分を特定することにより、身だしなみの判定を行ってもよい。これにより、DPF2を用いて笑顔の練習を行うことができる。   Further, in the above-described embodiment, the case where the user prepares the hairstyle is described as the appearance determination, but the appearance determination may be performed in other cases. For example, the user's current smile image may be compared with an ideal smile image, and the difference in the current smile image may be identified to determine the appearance. Thereby, it is possible to practice smiling using the DPF 2.

また、上述の実施の形態においては、カメラ10により使用者の顔を撮影し、顔についての身だしなみの判定を行っているが、使用者の全身を撮影し、全身の身だしなみについての判定を行うようにしてもよい。例えば、カメラ10の向きを変える駆動部を備え、CPU30は、駆動部を制御することによりカメラ10を上下に動かして使用者の顔、胸、腹、腰、脚、足を順次撮影し、撮影した画像の画像データを合成することにより使用者の全身の合成画像を生成するようにしてもよい。この場合、CPU30は、使用者の現在の全身合成画像と、事前に撮影された使用者の理想の身だしなみの全身画像とを比較し、現在の全身画像において相違する部分を特定することにより、全身についての身だしなみの判定を行ってもよい。これにより、使用者がネクタイをつけ忘れていないかのチェックなど、全身について大まかな身だしなみの判定を行うことができる。なお、画像データの合成は、どのような方法により行ってもよい。また、DPF2を複数用意し、DPF2を使用者の前後左右に配置した状態でそれぞれのカメラ10により使用者の撮影を行うことにより、使用者の複数面についての身だしなみの判定を行うようにしてもよい。   In the above-described embodiment, the user's face is photographed by the camera 10 and the appearance of the face is determined. However, the user's whole body is photographed and the appearance of the whole body is determined. It may be. For example, a drive unit that changes the orientation of the camera 10 is provided, and the CPU 30 controls the drive unit to move the camera 10 up and down to sequentially photograph the user's face, chest, belly, waist, legs, and feet. A synthesized image of the whole body of the user may be generated by synthesizing the image data of the obtained images. In this case, the CPU 30 compares the current whole body composite image of the user with the ideal whole body image of the user photographed in advance, and specifies a different part in the current whole body image, thereby identifying the whole body. You may also check the appearance of As a result, it is possible to make a rough appearance determination for the whole body, such as checking whether the user has forgotten to wear a tie. Note that image data may be combined by any method. Further, by preparing a plurality of DPFs 2 and photographing the user with each camera 10 in a state where the DPFs 2 are arranged on the front, back, left, and right of the user, it is possible to determine the appearance of the user on a plurality of surfaces. Good.

また、上述の実施の形態においては、平面画像を用いて身だしなみの判定を行っているが、立体画像を用いて身だしなみの判定を行うようにしてもよい。例えば、使用者自身が体の向きを少しずつ変えることにより、カメラ10により正面、右側側面、背面、左側側面の順に顔の撮影を行い、撮影した画像の画像データを合成することにより使用者の立体画像の画像データを生成するようにしてもよい。この場合、現在及び理想の身だしなみの顔についてそれぞれ立体画像の画像データを生成することにより、立体画像に基づいて身だしなみの判定を行うようにしてもよい。また、使用者の全身について立体画像の画像データを生成し、立体画像を用いて全身の身だしなみの判定を行うようにしてもよい。また、カメラ10により撮影するたびにLCDパネル6に“体の向きを変えてください。”などの表示を行うようにしてもよい。   In the above-described embodiment, appearance determination is performed using a flat image, but appearance determination may be performed using a stereoscopic image. For example, when the user himself changes the body direction little by little, the camera 10 shoots a face in the order of front, right side, back, left side, and combines the image data of the captured images. You may make it produce | generate the image data of a stereo image. In this case, it is also possible to determine the appearance based on the stereoscopic image by generating image data of the stereoscopic image for each of the current and ideal appearance faces. Alternatively, stereoscopic image data may be generated for the user's whole body, and the appearance of the whole body may be determined using the stereoscopic image. In addition, every time a picture is taken by the camera 10, a message such as “Please change the direction of your body” may be displayed on the LCD panel 6.

また、上述の実施の形態において、相違する部分の数に応じて類似度の閾値を変更するようにしてもよい。例えば、類似度30%を閾値として設定した場合において、相違する部分が3箇所未満であった場合には、閾値を類似度40%に変更して再度相違する部分の特定を行い、相違する部分が5箇所以上であった場合には、閾値を類似度20%に変更して再度相違する部分の特定を行うようにしてもよい。これにより、相違する部分が適度な数でLCDパネル6に表示され、身だしなみを整える必要のあるスポットを分かりやすくすることができる。なお、閾値は、操作キー18等の操作により、逐次使用者により設定するようにしてもよい。   In the above-described embodiment, the similarity threshold may be changed according to the number of different parts. For example, when 30% similarity is set as a threshold value and there are less than three different parts, the threshold value is changed to 40% and the different parts are specified again. If there are 5 or more locations, the threshold value may be changed to 20% similarity to specify different portions again. As a result, a different number of different parts are displayed on the LCD panel 6, and it is possible to make it easy to understand spots that need to be dressed. The threshold may be set by the user sequentially by operating the operation key 18 or the like.

また、上述の実施の形態において、LCDパネル6に表示する画像を左右反転させて表示するようにしてもよい。これにより、LCDパネル6に鏡面に映るような左右反転した画像を表示することができる。なお、画像を左右反転させて表示するか否かは使用者により設定できるようにしてもよい。   Further, in the above-described embodiment, the image displayed on the LCD panel 6 may be displayed by being reversed left and right. As a result, the horizontally reversed image that appears on the mirror surface can be displayed on the LCD panel 6. Note that the user may be able to set whether or not to display the image with the image reversed horizontally.

また、上述の実施の形態においては、一個の理想の身だしなみの画像の画像データが予め記憶されている場合について説明しているが、複数の理想の身だしなみの画像の画像データを予め記憶するようにしてもよい。この場合、CPU30は、判定基準取得モードにおいて、複数の理想の身だしなみの画像の画像データに付加されて記憶されているサムネイル画像データをそれぞれ読み出し、LCDパネル6にサムネイル画像一覧を表示し、サムネイル画像一覧から使用者により選択された画像を身だしなみの判定に用いるようにしてもよい。これにより、一つのDPF2を複数人で使用することができる。   In the above-described embodiment, the case where image data of one ideal appearance image is stored in advance is described. However, image data of a plurality of ideal appearance images is stored in advance. May be. In this case, in the determination criterion acquisition mode, the CPU 30 reads thumbnail image data added to and stored in the image data of a plurality of ideal appearance images, displays a thumbnail image list on the LCD panel 6, and displays thumbnail images. You may make it use the image selected by the user from the list | wrist for determination of appearance. Thereby, one DPF 2 can be used by a plurality of people.

また、上述の実施の形態においては、使用者の現在の顔の画像に直接色彩を変更する補正等を行ってLCDパネル6に表示しているが、使用者の現在の顔の画像と色彩を変更する補正等を行った画像を別々に表示してもよい。例えば、LCDパネル6の左面に理想の身だしなみの画像を表示し、LCDパネル6の右面の上半分に使用者の現在の顔の画像を、下半分に色彩を変更する補正等を行った画像を表示してもよい。ここで、操作キー18等を操作すること等により、LCDパネル6の右面の表示形態を選択できるようにしてもよい。   In the above-described embodiment, correction or the like for directly changing the color is performed on the image of the user's current face and displayed on the LCD panel 6, but the image and color of the user's current face are displayed. You may display separately the image which performed correction | amendment etc. which change. For example, an image of an ideal appearance is displayed on the left side of the LCD panel 6, an image of the user's current face is displayed on the upper half of the right side of the LCD panel 6, and an image subjected to correction etc. for changing the color is displayed on the lower half. It may be displayed. Here, the display form on the right side of the LCD panel 6 may be selected by operating the operation key 18 or the like.

また、上述の実施の形態において、ズームモードにおいて、使用者の現在の顔の画像の上に枠線を表示し、どの部分を拡大したかがわかるようにしてもよい。例えば、LCDパネル6の左面に理想の身だしなみの画像を表示し、LCDパネル6の右面の上半分に眼の部分を拡大した画像を、下半分に使用者の現在の顔の画像を表示し、現在の顔の画像における眼の部分の周りに四角い枠線を表示してもよい。なお、拡大サイズは使用者が任意に設定することができるようにしてもよい。   In the above-described embodiment, in the zoom mode, a frame line may be displayed on the image of the current face of the user so that it can be seen which part has been enlarged. For example, an image of an ideal appearance is displayed on the left surface of the LCD panel 6, an image in which the eye portion is enlarged is displayed on the upper half of the right surface of the LCD panel 6, and an image of the current face of the user is displayed on the lower half. A square frame line may be displayed around the eye portion in the current face image. The enlargement size may be arbitrarily set by the user.

また、上述の実施の形態において、LCDパネル6がタッチパネル機能を有するようにしてもよい。例えば、タッチセンサをLCDパネル6に配置し、LCDパネル6に表示された使用者の現在の顔の画像の画像データにおいて相違する部分をタッチすることにより、変更された色彩等を消去することができるようにしてもよい。これにより、身だしなみを整える必要のないスポットについては、LCDパネル6をタッチして変更された色彩を消去し、身だしなみを整える必要のあるスポットのみを残すことができる。また、タッチした部分を拡大して表示するようにしてもよい。例えば、LCDパネル6に身だしなみの全身画像が表示されている場合、顔の部分をタッチすることにより顔の部分を拡大した画像がLCDパネル6に表示され、さらに眼の部分をタッチすることにより眼の部分を拡大した画像がLCDパネル6に表示されるようにしてもよい。これにより、相違する部分について詳細な内容を知ることができる。   In the above-described embodiment, the LCD panel 6 may have a touch panel function. For example, the touch sensor is arranged on the LCD panel 6, and the changed color or the like can be erased by touching a different part in the image data of the current face image of the user displayed on the LCD panel 6. You may be able to do it. As a result, for spots that do not need to be dressed, the LCD panel 6 can be touched to erase the changed color, leaving only spots that need to be dressed. Further, the touched portion may be enlarged and displayed. For example, when a familiar whole body image is displayed on the LCD panel 6, an image obtained by enlarging the face part by touching the face part is displayed on the LCD panel 6, and further, the eye part is touched by touching the eye part. An image obtained by enlarging the part may be displayed on the LCD panel 6. Thereby, it is possible to know the detailed contents of the different portions.

また、上述の実施の形態において、使用者により色彩変更等を行う範囲を選択できるようにしてもよい。例えば、眉、髪、頬、眼の全てについて身だしなみが不十分であると判定された場合、使用者が操作キー18等を操作してカーソルを移動させること等により、LCDパネル6に表示された現在の顔の画像から髪の部分を範囲として選択した場合には、髪の部分の色彩を変更する補正を行うようにしてもよい。   In the above-described embodiment, the user may be able to select a range in which color change or the like is performed. For example, when it is determined that the appearance of all of the eyebrows, hair, cheeks, and eyes is insufficient, it is displayed on the LCD panel 6 when the user moves the cursor by operating the operation keys 18 or the like. When a hair portion is selected as a range from the current face image, correction may be performed to change the color of the hair portion.

また、上述の実施の形態において、類似度をLCDパネル6に表示してもよい。例えば、「眉:70%、髪:10%、頬:50%、眼:40%」等のように類似度をLCDパネル6に表示してもよい。これにより、使用者は、現在の身だしなみの整い具合を数値として把握することができる。   In the above-described embodiment, the similarity may be displayed on the LCD panel 6. For example, the similarity may be displayed on the LCD panel 6 such as “brow: 70%, hair: 10%, cheek: 50%, eyes: 40%”. Thereby, the user can grasp | ascertain the current state of appearance as a numerical value.

また、上述の実施の形態においては、カメラ10で撮影した画像の画像データを身だしなみの判定に用いているが、他のカメラで撮影した画像の画像データを用いてもよい。例えば、他のカメラで使用者の画像を撮影し、撮影した画像の画像データをメモリカード22に記憶した後、メモリカード22を他のカメラのメモリカードスロットから取り外し、DPF2のメモリカードスロット24に装着するようにしてもよい。これにより、他のカメラで撮影した画像の画像データを判定基準となる画像データとして用いることができる。また、USBポート26によりUSBケーブルを介して他のカメラとDPF2との間の通信を行うことにより、他のカメラから画像データを取得してもよい。また、ワイヤレスUSB通信を用いてもよく、またUSB通信以外の他の通信手段を用いて他のカメラから画像データを取得してもよい。   Further, in the above-described embodiment, the image data of the image captured by the camera 10 is used for the appearance determination. However, the image data of the image captured by another camera may be used. For example, after the user's image is taken with another camera and the image data of the taken image is stored in the memory card 22, the memory card 22 is removed from the memory card slot of the other camera, and the memory card slot 24 of the DPF 2 is loaded. You may make it wear. Thereby, image data of an image photographed by another camera can be used as image data serving as a determination criterion. Further, image data may be acquired from another camera by performing communication between the other camera and the DPF 2 via the USB cable by the USB port 26. Further, wireless USB communication may be used, and image data may be acquired from another camera using communication means other than USB communication.

また、上述の実施の形態においては、メニューボタンや操作キー18等を操作することによりDPF2の操作を行っているが、操作を操作用リモコンで行うようにしてもよい。これにより、使用者は、離れた場所から容易に操作を行うことができる。   In the above-described embodiment, the DPF 2 is operated by operating the menu button, the operation key 18 or the like. However, the operation may be performed by an operation remote controller. Thereby, the user can operate easily from a distant place.

なお、上述の実施の形態においては、DPF2は単体の装置として説明したが、身だしなみの判定結果の通知処理を実行する制御部を含む装置と、通知結果や上述の画像を表示するための表示媒体を含む装置とが別体であってもよい。また、上述の身だしなみの判定結果の通知処理は複数の装置の制御部により協働して実行してもよい。   In the above-described embodiment, the DPF 2 has been described as a single device. However, a device including a control unit that performs notification processing of the appearance determination result, and a display medium for displaying the notification result and the above-described image The apparatus including the above may be a separate body. In addition, the notification process of the above-mentioned appearance determination result may be executed in cooperation by control units of a plurality of devices.

なお、上述の実施の形態における身だしなみの判定結果の通知処理を実行するためのプログラムはプログラムメモリ44に格納しても良いし、他の記録媒体に格納しても良い。   Note that the program for executing the notification process of the appearance determination result in the above-described embodiment may be stored in the program memory 44 or may be stored in another recording medium.

また、上述の実施の形態であるDPF2の一部、例えば、CPU30の機能をコンピュータで実現するようにしてもよい。この場合、その身だしなみの判定結果の通知処理における制御機能を実現するための画像処理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された画像処理プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   Moreover, you may make it implement | achieve a part of DPF2 which is the above-mentioned embodiment, for example, the function of CPU30 with a computer. In this case, an image processing program for realizing the control function in the notification process of the appearance determination result is recorded on a computer-readable recording medium, and the image processing program recorded on the recording medium is read by the computer system. , May be realized by executing. Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case may be included and a program that holds a program for a certain period of time may be included. Further, the above program may be for realizing a part of the functions described above, or may be realized by a combination with the program already recorded in the computer system. .

2…DPF、4…装置本体、6…LCDパネル,10…カメラ、12…スピーカ、14…赤外線検出部、16…電源スイッチ、18…操作キー、20…シャッタボタン、24…メモリカードスロット、26…USBポート、28…ネットワーク端子。   2 ... DPF, 4 ... device main body, 6 ... LCD panel, 10 ... camera, 12 ... speaker, 14 ... infrared detector, 16 ... power switch, 18 ... operation keys, 20 ... shutter button, 24 ... memory card slot, 26 ... USB port, 28 ... Network terminal.

Claims (9)

人物を撮影する撮影部と、
前記撮影部で撮影した前記人物の画像に基づいて前記人物の身だしなみを判定する判定部と、
前記判定部による判定に基づいて判定結果を通知する通知部と
を備えることを特徴とする電子機器。
A shooting section for shooting people,
A determination unit that determines the appearance of the person based on the image of the person photographed by the photographing unit;
An electronic device comprising: a notification unit that notifies a determination result based on determination by the determination unit.
前記判定部は、前記撮影部で撮影した前記人物の画像と予め撮影しておいた前記人物の画像とを比較する比較部を備え、
前記判定部は、前記比較部による比較に基づいて前記撮影部で撮影した前記人物の画像と前記予め撮影しておいた前記人物の画像との相違する部分を特定することにより身だしなみを判定することを特徴とする請求項1記載の電子機器。
The determination unit includes a comparison unit that compares the image of the person photographed by the photographing unit with the image of the person photographed in advance.
The determination unit determines the appearance by specifying a different portion between the image of the person photographed by the photographing unit and the image of the person photographed in advance based on the comparison by the comparison unit. The electronic device according to claim 1.
前記撮影部で撮影した前記人物の画像を表示する表示部を備え、
前記通知部は、前記表示部に前記判定結果を表示することを特徴とする請求項1又は請求項2に記載の電子機器。
A display unit for displaying an image of the person photographed by the photographing unit;
The electronic device according to claim 1, wherein the notification unit displays the determination result on the display unit.
前記通知部は、前記表示部に表示されている前記撮影部で撮影した前記人物の画像と前記予め撮影しておいた前記人物の画像との相違する部分を識別表示することを特徴とする請求項3記載の電子機器。   The said notification part identifies and displays the part which is different between the said person's image image | photographed with the said imaging | photography part currently displayed on the said display part, and the said person image | photographed previously. Item 4. The electronic device according to Item 3. 前記通知部は、前記表示部に表示されている前記撮影部で撮影した前記人物の画像と前記予め撮影しておいた前記人物の画像との相違する部分の色彩を変更すること、前記相違する部分を反転表示させること、前記相違する部分を点滅させること、前記相違する部分を拡大して表示すること、及び相違の度合いを数値化して表示することの中の少なくとも一つを行うことを特徴とする請求項4記載の電子機器。   The notifying unit changes a color of a different portion between the image of the person photographed by the photographing unit displayed on the display unit and the image of the person photographed in advance. Performing at least one of highlighting a part, blinking the different part, enlarging and displaying the different part, and quantifying and displaying the degree of difference. The electronic device according to claim 4. 前記通知部は、前記判定結果を音声により通知する音声出力部を備えることを特徴とする請求項1又は2に記載の電子機器。   The electronic device according to claim 1, wherein the notification unit includes a voice output unit that notifies the determination result by voice. 前記判定部による前記相違する部分を特定する際に用いられる判定基準を変更する判定基準変更部を備えることを特徴とする請求項2に記載の電子機器。   The electronic apparatus according to claim 2, further comprising a determination criterion changing unit that changes a determination criterion used when the different portion is specified by the determination unit. 判定基準変更部による前記判定基準の変更は、前記撮影部で撮影した前記人物の画像と前記予め撮影しておいた前記人物の画像との相違度合いに応じて行われることを特徴とする請求項7記載の電子機器。   The change of the determination criterion by the determination criterion changing unit is performed according to a degree of difference between the image of the person photographed by the photographing unit and the image of the person photographed in advance. 7. The electronic device according to 7. 前記撮影部による撮影方向を変化させる駆動部と、
前記駆動部により撮影方向を変化させて撮影した複数の画像を合成し前記判定部による判定の対象となる合成画像を生成する画像合成部と
を備えることを特徴とする請求項1〜8の何れか一項に記載の電子機器。
A drive unit for changing a shooting direction by the shooting unit;
9. The image synthesizing unit according to claim 1, further comprising: an image synthesizing unit that synthesizes a plurality of images photographed by changing a photographing direction by the driving unit and generates a synthesized image to be determined by the determining unit. An electronic device according to any one of the above.
JP2010065510A 2010-03-23 2010-03-23 Electronic device Pending JP2011198178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065510A JP2011198178A (en) 2010-03-23 2010-03-23 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065510A JP2011198178A (en) 2010-03-23 2010-03-23 Electronic device

Publications (1)

Publication Number Publication Date
JP2011198178A true JP2011198178A (en) 2011-10-06

Family

ID=44876261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065510A Pending JP2011198178A (en) 2010-03-23 2010-03-23 Electronic device

Country Status (1)

Country Link
JP (1) JP2011198178A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034779A1 (en) * 2020-08-11 2022-02-17 オムロン株式会社 Image processing device, and image processing method
JP2024154390A (en) * 2023-04-18 2024-10-30 ソフトバンクグループ株式会社 Electronics

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034779A1 (en) * 2020-08-11 2022-02-17 オムロン株式会社 Image processing device, and image processing method
JP2022032133A (en) * 2020-08-11 2022-02-25 オムロン株式会社 Image processing device and image processing method
JP7604804B2 (en) 2020-08-11 2024-12-24 オムロン株式会社 Image processing device and image processing method
JP2024154390A (en) * 2023-04-18 2024-10-30 ソフトバンクグループ株式会社 Electronics
JP7746449B2 (en) 2023-04-18 2025-09-30 ソフトバンクグループ株式会社 electronic equipment

Similar Documents

Publication Publication Date Title
US10565763B2 (en) Method and camera device for processing image
CN102957860B (en) The method of image processing equipment and processing image
WO2016011747A1 (en) Skin color adjustment method and device
WO2017092128A1 (en) Method and device for displaying preview image
JP6622289B2 (en) Photo composition method, apparatus, program, and recording medium
JP6445707B2 (en) Image processing method and apparatus
JP2017118472A (en) Image processing device, image processing method and program
CN101751906B (en) Display method and photographing apparatus and display apparatus using the same
CN105516609A (en) Method and device for taking pictures
JP2019186791A (en) Imaging apparatus, control method of the imaging apparatus, and control program
JP6324278B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
US9374525B2 (en) Shooting apparatus and shooting method
KR102557592B1 (en) Method and apparatus for displaying an image, electronic device and computer-readable storage medium
JP2011198178A (en) Electronic device
CN106327588B (en) Intelligent terminal and image processing method and device thereof
JP5910639B2 (en) Image processing apparatus, image processing method, and computer program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
TW202114396A (en) Imaging device, imaging control method, and imaging control program
JP2013115656A (en) Photographing apparatus
JP5477025B2 (en) Image display device and program
JP2004104426A (en) Imaging apparatus
US20150015742A1 (en) Imaging method and imaging apparatus
JP2015088849A (en) Imaging apparatus, imaging method, and program
JP5626524B2 (en) Image display device and image display method
JP5242756B2 (en) Image processing apparatus, image processing method, and camera