[go: up one dir, main page]

JP2011164141A - Automatic photograph producing device - Google Patents

Automatic photograph producing device Download PDF

Info

Publication number
JP2011164141A
JP2011164141A JP2010023392A JP2010023392A JP2011164141A JP 2011164141 A JP2011164141 A JP 2011164141A JP 2010023392 A JP2010023392 A JP 2010023392A JP 2010023392 A JP2010023392 A JP 2010023392A JP 2011164141 A JP2011164141 A JP 2011164141A
Authority
JP
Japan
Prior art keywords
image
eye
user
unit
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010023392A
Other languages
Japanese (ja)
Inventor
Satoshi Tatsumi
聡 辰巳
Mitsuhiro Hasegawa
光寛 長谷川
Tadashi Noma
忠 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2010023392A priority Critical patent/JP2011164141A/en
Publication of JP2011164141A publication Critical patent/JP2011164141A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To apply a desirable pattern (typically, eye-catch) to user's eye without providing new components and without requiring a user to write the pattern (doodling). <P>SOLUTION: The automatic photograph producing device is configured, in eye-catch writing processing, to read a template image (S310), and compare the template image with a comparison object portion of a doodling object image (S320), thereby detecting a portion where matching degree with user's eye (image portion thereof) included in the doodling object image is equal to or above a threshold (S330), then calculate center coordinates of the iris of the eye included in the detected portion (S400), and properly stick the eye-catch image (S410). By thus automatically sticking the eye-catch image, a synthetic image where the eye-catch is applied to the user's eye is obtained in the same manner as the user's eye is charmingly photographed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、自動写真作成装置に関し、より詳しくは、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真等として出力する自動写真作成装置に関する。   The present invention relates to an automatic photo creation apparatus, and more particularly to an automatic photo creation apparatus that takes a user with a camera and outputs a composite image generated based on the taken image as a photograph.

従来より、利用者をカメラで撮影し、その撮影画像を写真として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像(以下「付加画像」という)を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンやライトペン等のペン型入力手段を用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような行為は、撮影画像に対してなされるため、「落書き」と呼ばれる。このような落書きには、一般的に制限時間が設けられており、この制限時間内で予め用意された多種多様な背景画像や前景画像(例えばフレーム画像やスタンプ画像)などから利用者の嗜好に応じた画像が選択可能なように、従来の自動写真作成装置には様々な工夫がなされている。   2. Description of the Related Art Conventionally, there is known a photo creation device for a game where a user is photographed with a camera and the photographed image is output as a photograph. Such a play photo creating apparatus has high playability or entertainment, and therefore, various images prepared in advance according to the user's preference are prepared for images to be synthesized with the photographed images (hereinafter referred to as “additional images”). In many cases, a user can select from various background images and foreground images, or can freely draw by a user using a pen-type input unit such as a touch pen or a light pen. Since such an action by the user is performed on the photographed image, it is called “graffiti”. Such graffiti is generally provided with a time limit, and the user's preference can be selected from a variety of background images and foreground images (for example, frame images and stamp images) prepared in advance within the time limit. Various devices have been devised in the conventional automatic photo creating apparatus so that the corresponding image can be selected.

また、従来の遊技用写真作成装置は、撮影時に明るい閃光を発して利用者を照明するフラッシュや常時点灯して利用者を照明する蛍光灯などの光量や照明角度などを適宜に設定することにより、利用者を美しく撮影する工夫がなされているものがある。   In addition, the conventional game photo creation device appropriately sets the amount of light, the illumination angle, etc., such as a flash that emits a bright flash at the time of shooting to illuminate the user or a fluorescent lamp that always lights to illuminate the user. Some have been devised to take beautiful pictures of users.

例えば従来より、利用者の目(黒目)を美しく撮影するため、利用者の前方にスクリーンを配置し、映像出力装置から所定形状の図形の映像をスクリーンに投射することにより、利用者の目に当該図形を映り込ませて撮影する装置や(特許文献1を参照)、利用者の前方に所定形状の図形を形成するよう複数の発光体を適宜に配置することにより、利用者の目に当該図形を映り込ませて撮影する装置(特許文献2を参照)などがある。このように目に映り込んだ高輝度の図形は、アイキャッチ(キャッチライト)と呼ばれる。   For example, in order to photograph a user's eyes (black eyes) beautifully, a screen is arranged in front of the user and a graphic image of a predetermined shape is projected from the video output device onto the screen. A device that captures and captures the figure (see Patent Document 1), and by appropriately arranging a plurality of light emitters so as to form a figure with a predetermined shape in front of the user, There is an apparatus that captures and captures a figure (see Patent Document 2). Such a high-luminance figure reflected in the eyes is called an eye catch (catch light).

特開2002−77781号公報JP 2002-77781 A 特開2002−56457号公報JP 2002-56457 A

しかし、上記従来の遊技用写真作成装置は、利用者の目(黒目)を美しく撮影するためのスクリーンおよび映像装置、または複数の発光体などの部品を新たにを設ける必要があるため、コストがかかる。また、上記従来の装置では、新たに設けられる上記部品を筐体の前面に適宜配置しなければならないため、利用者の目に映り込ませるための図形を所望の形状にすることが難しい。   However, the above-described conventional game photo creation device requires a new screen and image device for photographing the user's eyes (black eyes) or a plurality of parts such as a plurality of light emitters. Take it. Further, in the conventional apparatus, since the newly provided component must be appropriately disposed on the front surface of the housing, it is difficult to make a figure to be reflected in the eyes of the user into a desired shape.

この点、上記部品を設けることなく、撮影画像に含まれる利用者の目(の画像)に対して所望の形状の図形、具体的には利用者の目を美しく見せることができる形状の図形(アイキャッチ)を利用者の(手による)落書きによって書き込めば、結果として利用者の目を美しく撮影したと同様の結果(合成画像)を得ることができる。   In this regard, a graphic having a desired shape with respect to the user's eyes (image) included in the photographed image, specifically, a figure that can make the user's eyes beautiful (without providing the above components) If the “eye catch” is written by the graffiti of the user (by hand), as a result, the same result (synthesized image) as if the user's eyes were photographed beautifully can be obtained.

しかし、利用者がタッチペンなどを使用して、利用者の目(の画像)に対して、目を美しく見せることができる形状(および色彩)を有する図形を書き込むことは難しく、少なくとも制限時間内で素早く書き込むことは極めて難しい。   However, it is difficult for a user to write a figure having a shape (and color) that can make the eyes look beautiful with respect to the user's eyes (image) using a touch pen or the like, at least within the time limit It is extremely difficult to write quickly.

そこで、本発明の目的は、映像装置や発光体などの新たな部品を設けることなく、また利用者による図形の書き込み(落書き)を要することなく、利用者の目に所望の図形(典型的にはアイキャッチ)が付された合成画像を得ることができる自動写真作成装置を提供することである。   Therefore, an object of the present invention is to provide a desired graphic (typically, without providing a new part such as an image device or a light emitter, and without requiring a user to write a graphic (doodle)). Is to provide an automatic photo creating apparatus capable of obtaining a composite image with an eye catch.

第1の発明は、被写体である利用者を含む像を撮影する撮影手段と、前記撮影手段により得られる撮影画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影画像に含まれる前記利用者の目の像を検出する目検出手段と、
前記目の像に合成されるべき図形を示す付加画像を記憶する記憶手段と、
前記目検出手段により検出される前記目の像に対して、前記記憶手段に記憶される付加画像に相当する画像を合成することにより、前記合成画像を生成する画像合成手段と
を備えることを特徴とする。
A first aspect of the invention is an automatic photo creation apparatus comprising a photographing means for photographing an image including a user who is a subject and an output means for outputting a composite image including a photographed image obtained by the photographing means as a photograph. ,
Eye detection means for detecting an image of the user's eye included in the captured image;
Storage means for storing an additional image indicating a figure to be combined with the eye image;
Image synthesis means for generating the synthesized image by synthesizing an image corresponding to the additional image stored in the storage means with the eye image detected by the eye detecting means. And

第2の発明は、第1の発明において、
前記目検出手段は、前記利用者の目の像のうちの瞳孔の中心位置を検出し、
前記画像合成手段は、前記目検出手段により検出される前記瞳孔の中心位置に、前記付加画像上の所定位置であって瞳孔の中心位置に対応するよう予め定められた位置を合わせて、前記付加画像に相当する画像を合成することを特徴とする。
According to a second invention, in the first invention,
The eye detection means detects the center position of the pupil in the image of the user's eyes,
The image synthesizing unit aligns the predetermined position on the additional image corresponding to the center position of the pupil with the center position of the pupil detected by the eye detecting unit, and adds the additional position. An image corresponding to the image is synthesized.

第3の発明は、第1または第2の発明において、
前記画像合成手段は、前記目の像のうちの黒目の像に合わせて、前記記憶手段に記憶される前記付加画像に対して拡大、縮小、または回転を行うことにより前記付加画像に相当する画像を生成し、当該付加画像に相当する画像を前記黒目の像に合成することを特徴とする。
According to a third invention, in the first or second invention,
The image synthesizing unit enlarges, reduces, or rotates the additional image stored in the storage unit in accordance with the black eye image of the eye image, thereby corresponding to the additional image. And an image corresponding to the additional image is combined with the black eye image.

第4の発明は、第1から第3までのいずれか1つの発明において、
前記記憶手段は、テンプレート画像となるべき目の像を含む画像をさらに記憶し、
前記目検出手段は、前記記憶手段に記憶される目の像を含む画像に対して拡大、縮小、または回転を行うことによりテンプレート画像を複数種類生成し、前記撮影画像に含まれる像であって生成された複数種類のテンプレート画像に一致または近似する像を前記利用者の目の像として検出することを特徴とする。
According to a fourth invention, in any one of the first to third inventions,
The storage means further stores an image including an eye image to be a template image,
The eye detection unit generates a plurality of types of template images by enlarging, reducing, or rotating an image including an eye image stored in the storage unit, and is an image included in the captured image. An image that matches or approximates the plurality of types of generated template images is detected as an image of the user's eyes.

第5の発明は、第1から第4までのいずれか1つの発明において、
前記目の像に合成されるべき図形を選択するための前記利用者による操作入力を受け付ける入力手段をさらに備え、
前記記憶手段は、互いに異なる図形を示す複数の付加画像を記憶し、
前記画像合成手段は、前記入力手段により受け付けられた操作入力に応じて選択された図形を示す前記複数の付加画像のうちの1つに相当する画像を、前記目検出手段により検出される前記目の像に対して合成することにより、前記合成画像を生成することを特徴とする。
According to a fifth invention, in any one of the first to fourth inventions,
An input means for receiving an operation input by the user for selecting a figure to be combined with the eye image;
The storage means stores a plurality of additional images showing different figures from each other,
The image synthesizing unit is configured to detect, by the eye detection unit, an image corresponding to one of the plurality of additional images indicating a graphic selected according to the operation input received by the input unit. The synthesized image is generated by synthesizing the image.

第6の発明は、第1から第4までのいずれか1つの発明において、前記画像合成手段によって合成された付加画像を前記合成画像から消去するための前記利用者による操作入力を受け付ける入力手段をさらに備え、
前記画像合成手段は、前記入力手段により受け付けられた操作入力に応じて、前記付加画像が前記画像合成手段によって合成される前の状態に、前記合成画像を復元することを特徴とする。
According to a sixth invention, in any one of the first to fourth inventions, an input means for receiving an operation input by the user for erasing the additional image synthesized by the image synthesizing means from the synthesized image. In addition,
The image synthesizing unit restores the synthesized image to a state before the additional image is synthesized by the image synthesizing unit in response to an operation input received by the input unit.

第7の発明は、被写体である利用者を含む像を撮影する撮影ステップと、前記撮影ステップにおいて得られる撮影画像を含む合成画像を写真として出力する出力ステップとを備える自動写真作成装置の制御方法であって、
前記撮影画像に含まれる前記利用者の目の像を検出する目検出ステップと、
前記目検出ステップにより検出される前記目の像に対して、予め記憶される前記目の像に合成されるべき図形を示す付加画像に相当する画像を合成することにより、前記合成画像を生成する画像合成ステップと
を備えることを特徴とする。
A seventh aspect of the invention is a method for controlling an automatic photo creation apparatus, comprising: a photographing step for photographing an image including a user who is a subject; and an output step for outputting a composite image including a photographed image obtained in the photographing step as a photograph. Because
An eye detection step of detecting an image of the user's eye included in the captured image;
The synthesized image is generated by synthesizing an image corresponding to an additional image indicating a figure to be synthesized with the eye image stored in advance with the eye image detected by the eye detecting step. An image synthesis step.

第8の発明は、第7の発明に記載の自動写真作成装置の制御方法をコンピュータに実行させることを特徴とするプログラムである。   An eighth invention is a program that causes a computer to execute the control method of the automatic photo creating apparatus described in the seventh invention.

上記第1の発明によれば、目検出手段によって撮影画像に含まれる利用者の目の像を自動的に検出し、画像合成手段により記憶手段に記憶される付加画像に相当する画像を合成することにより合成画像を生成するので、映像装置や発光体などの新たな部品を設けることなく、また利用者の手による図形の書き込み(落書き)を要することなく、利用者の目を美しく撮影したと同様に、自動的に利用者の目に所望の図形(典型的にはアイキャッチ)が付された合成画像を生成することができる。   According to the first aspect, the eye detection unit automatically detects the user's eye image included in the photographed image, and the image synthesis unit synthesizes an image corresponding to the additional image stored in the storage unit. As a result, a composite image is generated, so that the user's eyes are photographed beautifully without the need for new parts such as video equipment and light emitters, and without the need for drawing (doodles) by the user's hand. Similarly, it is possible to automatically generate a composite image with a desired figure (typically eye catch) attached to the user's eyes.

上記第2の発明によれば、目検出手段によって利用者の目の像のうちの瞳孔の中心位置が検出され、画像合成手段によって、瞳孔の中心位置に、付加画像上の瞳孔の中心位置に対応する位置を合わせて合成されるので、瞳孔の検出が容易かつ正確にでき、特に撮影時において一般的に瞳孔が目蓋で隠されることがないことから、(円形で黒色の)瞳孔部分を検出して付加画像の合成を容易かつ正確に行うことができる。   According to the second aspect, the center position of the pupil in the image of the user's eyes is detected by the eye detection means, and the center position of the pupil is added to the center position of the pupil on the additional image by the image composition means. Since the corresponding positions are synthesized, the pupil can be easily and accurately detected. In particular, the pupil is not hidden by the eyelid during shooting. It is possible to detect and synthesize the additional image easily and accurately.

上記第3の発明によれば、画像合成手段によって、目の像のうちの黒目の像に合わせて、付加画像に対して拡大、縮小、または回転を行うことにより合成が行われるので、例えば(人や表情によって)多様なものとなる(目蓋等を含む)目全体の画像に対して合成する場合よりも、正確な大きさまたは角度を設定し、正しく位置を合わせることを簡単に行うことができる。   According to the third aspect of the invention, the composition is performed by enlarging, reducing, or rotating the additional image in accordance with the black eye image of the eye image by the image composition means. It is easier to set the correct size or angle and align the correct position than when combining images of the whole eye (including the eyelids etc.) that are diverse (depending on people and facial expressions). Can do.

上記第4の発明によれば、目検出手段によって、複数種類のテンプレート画像に一致または近似する像が利用者の目の像として検出されるので、簡単な構成で正確に検出を行うことができる。   According to the fourth aspect of the invention, since the image that matches or approximates a plurality of types of template images is detected by the eye detection means as the image of the user's eyes, accurate detection can be performed with a simple configuration. .

上記第5の発明によれば、入力手段により受け付けられた操作入力に応じて選択された図形を示す複数の付加画像のうちの1つに相当する画像が目の像に対して合成されるので、予め用意された様々な付加画像(典型的にはアイキャッチ)から利用者によって選択された好みの付加画像が付された合成画像を生成することができる。   According to the fifth aspect, the image corresponding to one of the plurality of additional images indicating the graphic selected according to the operation input received by the input means is synthesized with the eye image. Then, it is possible to generate a composite image with a favorite additional image selected by the user from various additional images (typically eye catches) prepared in advance.

上記第6の発明によれば、入力手段により受け付けられた操作入力に応じて、付加画像が合成される前の状態に、合成画像が復元されるので、利用者はアイキャッチ画像の合成を簡単に取り消すことが可能となる。   According to the sixth aspect, since the composite image is restored to the state before the additional image is synthesized in accordance with the operation input received by the input means, the user can easily synthesize the eye catch image. It becomes possible to cancel.

上記第7の発明によれば、上記第1の発明と同様の効果を当該方法発明において奏する
ことができる。
According to the seventh aspect, the same effect as that of the first aspect can be achieved in the method invention.

上記第8の発明によれば、上記第1の発明と同様の効果を当該プログラムにおいて奏することができる。   According to the eighth aspect, the program can achieve the same effect as the first aspect.

本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。It is a figure which shows the external appearance of the photo production apparatus for games which is an automatic photo production apparatus which concerns on one Embodiment of this invention. 上記実施形態における撮影ユニットの正面図である。It is a front view of the imaging unit in the embodiment. 上記実施形態における編集ユニットの正面図である。It is a front view of the edit unit in the said embodiment. 上記実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the photo production apparatus for play concerning the said embodiment from the functional surface. 上記実施形態において、撮影処理の処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure of photographing processing in the embodiment. 上記実施形態において、編集処理の処理手順を示すフローチャートである。5 is a flowchart illustrating a processing procedure for editing processing in the embodiment. 上記実施形態において、アイキャッチ書き込み処理の処理手順を示すフローチャートである。In the said embodiment, it is a flowchart which shows the process sequence of an eye catch write process. 上記実施形態におけるモデル画像を示す図である。It is a figure which shows the model image in the said embodiment. 上記実施形態におけるテンプレート画像による目の位置の検索手順を説明するための図である。It is a figure for demonstrating the search procedure of the position of the eye by the template image in the said embodiment. 上記実施形態におけるアイキャッチ画像を示す図である。It is a figure which shows the eye catch image in the said embodiment. 上記実施形態におけるアイキャッチ画像を落書き対象画像の目の部分に書き込んだ状態を示す図である。It is a figure which shows the state which wrote in the eye part of the graffiti target image the eye catch image in the said embodiment.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。
<1.全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用写真作成装置は、利用者が入る撮影室2と、利用者を撮影し背景画像および前景画像の選択を受け付ける撮影ユニット3と、利用者による落書き(描画操作)を含む編集操作を受け付け撮影画像に合成した合成画像を生成する編集ユニット4と、合成画像を出力する出力ユニット5とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図である。以下、図1から図3を参照しつつ、本実施形態における遊戯用写真作成装置の全体構成について説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game photo creation device that is an automatic photo creation device according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This play photo creation device accepts a shooting room 2 where a user enters, a shooting unit 3 that takes a picture of the user and receives selection of a background image and a foreground image, and an editing operation including graffiti (drawing operation) by the user. An editing unit 4 that generates a combined image combined with the photographed image and an output unit 5 that outputs the combined image are provided. FIG. 2 is a front view of the photographing unit 3, and FIG. 3 is a front view of the editing unit 4. Hereinafter, the overall configuration of the game photo creation device according to the present embodiment will be described with reference to FIGS. 1 to 3.

撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面には電動ロールカーテン装置25が配置されている。   The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, an electric roll curtain device 25 is disposed on the rear surface, which is the rear surface when viewed from the user entering the inside of the photographing room 2.

撮影ユニット3は、利用者を撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の位置に配置され閃光を発するストロボ11,12,13L,13R,14と、当該カメラ10の下方に配置され利用者からの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20とを備えている。   The photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, strobes 11, 12, 13 L, 13 R, and 14 that are arranged at the top, bottom, left and right positions of the camera 10 and emit flash light. It is provided with a shooting operation touch panel 20 that is arranged and receives operations from a user, displays shot images, and the like.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者による各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user during shooting, and to display an image based on the image signal in real time.

撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域、ポーズの見本を表示するためのポーズ見本表示領域、および撮影によって得られる落書き対象画像を表示するための落書き対象画像表示領域などを含む画面が表示される。   The shooting operation touch panel 20 has a real-time preview area for displaying a shot image in real time, a pose sample display area for displaying a pose sample, and a graffiti target image for displaying a graffiti target image obtained by shooting. A screen including a display area is displayed.

また撮影ユニット3は、コンピュータを中心に構成され各部の制御等を行う制御装置、I/O制御装置、および編集ユニット4と通信を行うためのネットワークアダプタ等を内蔵している。また、撮影ユニット3は、前面下方にコイン投入口26を備えている。   The photographing unit 3 is built around a computer and incorporates a control device for controlling each part, an I / O control device, a network adapter for communicating with the editing unit 4, and the like. The photographing unit 3 includes a coin insertion slot 26 at the lower front side.

編集ユニット4は、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置、および撮影ユニット3等と通信を行うためのネットワークアダプタ等を内蔵している。また、編集ユニット4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含む編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるタッチペン49L、49Rとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   The editing unit 4 is configured around a computer similar to the photographing unit 3, and includes a control device that controls each part and the like, and a network adapter that communicates with the photographing unit 3 and the like. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One unit 4a includes an editing operation touch panel 400 including a graffiti area, an area for displaying a menu for graffiti, a tool, and the like, and touch pens 49L and 49R used for operations on the editing operation touch panel 400. Is provided. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいてそれぞれ2人の利用者が同時に落書きを行えるような画面構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。   The editing operation touch panel 400 according to the present embodiment has a screen configuration in which two users can simultaneously doodle each unit 4a and 4b. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing.

出力ユニット5は、典型的には携帯電話端末に備えられる赤外線ポートを使用して行われるような近距離で接触を要しない通信(以下「非接触通信」という)により、利用者の携帯電話端末に画像を送信する際に利用者によって操作される出力操作用タッチパネル30と、出力操作用タッチパネル30の下方に配置され上記画像送信のための赤外線通信を行う非接触通信ポート31と、上記非接触通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32とを備えている。また、出力ユニット5は、前面下方に、編集ユニット4で編集操作が行われた合成画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。   The output unit 5 typically uses a user's mobile phone terminal by communication that does not require contact at a short distance (hereinafter referred to as “non-contact communication”), such as is performed using an infrared port provided in the mobile phone terminal. An output operation touch panel 30 that is operated by a user when transmitting an image, a non-contact communication port 31 that is disposed below the output operation touch panel 30 and performs infrared communication for image transmission, and the non-contact A speaker 32 is provided for notifying the user by voice of operation methods and sound effects necessary for communication. Further, the output unit 5 includes an outlet 33 for taking out a photo sticker, a photo card, or the like on which a composite image that has been edited by the editing unit 4 is printed.

出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シール等を携帯電話端末でも見たい場合に、上記非接触通信機能を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されていている。   The output operation touch panel 30 performs various operations necessary for transmitting to a mobile phone terminal having the non-contact communication function when the user wants to see a photo sticker or the like on which a composite image is printed on the mobile phone terminal. It is configured to provide an operation screen for receiving.

このような出力ユニット5は、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置および編集ユニット4等と通信を行うためのネットワークアダプタ等を内蔵しているほか、合成画像を写真シール等として印刷するネットワークプリンタ35を備えている。   Such an output unit 5 is composed mainly of the same computer as the photographing unit 3, and includes a control device for controlling each part and the like, a network adapter for communicating with the editing unit 4, etc. A network printer 35 for printing an image as a photo sticker or the like is provided.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、利用者は、落書きによって生成された合成画像をネットワークプリンタによって印刷したり、非接触通信機能を有する携帯電話端末に非接触通信を利用して画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。   In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. Then, the user prints a composite image generated by graffiti using a network printer, transmits an image using a non-contact communication to a mobile phone terminal having a non-contact communication function, and receives an image received by the mobile phone terminal. Is displayed on the terminal screen.

<2.機能的構成>
図4は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。図4に示されるようにこの遊戯用写真作成装置は、機能的には、主として利用者を撮影する処理(撮影処理)を行うための撮影処理部7と、主として落書き対象画像に対する利用者の落書き操作に応じて当該落書き対象画像の編集処理を行うための編集処理部8と、編集処理が行われた落書き対象画像を写真シール等として出力したり、非接触通信を利用して携帯電話端末に出力したりする処理(出力処理)を行う出力処理部9とから構成されている。
<2. Functional configuration>
FIG. 4 is a block diagram showing a configuration of a main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. As shown in FIG. 4, this play photo creating apparatus functionally has a photographing processing unit 7 for mainly performing a process of photographing a user (photographing process), and a user's graffiti mainly for a graffiti target image. An editing processing unit 8 for performing an editing process on the graffiti target image in response to an operation, and outputting the graffiti target image on which the editing process has been performed as a photo sticker or the like, And an output processing unit 9 that performs a process of outputting (output process).

撮影処理部7は、第1の制御部70と、撮像部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75とによって構成されている。編集処理部8は、第2の制御部80と、第2の表示・操作部81,82と、第2の通信部83とによって構成されている。出力処理部9は、第3の制御部90と、第3の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、第3の通信部95とによって構成されている。ネットワークアダプタである第1、第2および第3の通信部75,83,95は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。   The imaging processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. It is configured. The edit processing unit 8 includes a second control unit 80, second display / operation units 81 and 82, and a second communication unit 83. The output processing unit 9 includes a third control unit 90, a third display / operation unit 91, a print output unit 92, an audio output unit 93, a non-contact communication unit 94, and a third communication unit 95. It is constituted by. The first, second, and third communication units 75, 83, and 95 that are network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).

撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。   The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time.

第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に合成されるべき背景画像および前景画像を選択する操作や、出力されるべき写真のレイアウトを決定するための利用者の操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。   The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and is used for selecting a background image and a foreground image to be combined with a shot image and determining a layout of a photo to be output. The user's operation and shutter operation are accepted. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.

照明部74は、カメラ10の上下左右の位置に配置されたストロボ11,12,13L,13R,14に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、撮影ユニット3に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 </ b> L, 13 </ b> R, 14 disposed at the top, bottom, left, and right positions of the camera 10, and is turned on / off by the I / O control unit 73 based on an instruction from the first control unit 70. Turning off and dimming are controlled. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter built in the photographing unit 3 and functions as an interface for data transmission / reception via the network 6.

第1の制御部70は、撮影ユニット3に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像を生成する。生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。こうして撮影および合成画像の生成が終了すると、生成された合成画像は利用者の入力操作に応じて適宜選択された後、第1の通信部75を介して、編集ユニット4に対応する第2の制御部80へ送られる。   The first control unit 70 is built in the photographing unit 3 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device and the like, and is stored in a predetermined memory stored in an internal memory. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image. The generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72. Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. The generated composite image is displayed on the first display / operation unit 72 by being written in the frame buffer. When the shooting and the generation of the composite image are completed in this way, the generated composite image is appropriately selected according to the input operation of the user, and then the second corresponding to the editing unit 4 via the first communication unit 75. It is sent to the control unit 80.

上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the present photo creation device, such as shooting, selection of the background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game photo creation device and are well known, detailed description thereof will be omitted.

第2の制御部80は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集処理に関する全体の制御を行う。また、第2の制御部80は、第1の制御部70から送られてきた撮影画像に対する落書き処理を行うための操作信号に基づき、落書き対象画像に所定画像を描画した画像である合成画像を生成する。生成された合成画像は利用者の指示に応じて対応する第2の表示・操作部81,82に表示される。上記のような合成画像の生成が終了すると、当該合成画像は出力ユニット5に送られる。なお、印刷出力部92が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。   The second control unit 80 is a built-in editing unit 4 and corresponds to a control device that is configured around a computer including a CPU, a memory, a frame buffer, an auxiliary storage device, and the like, and is a predetermined program stored in an internal memory. Is executed by the CPU to perform overall control related to the editing process. In addition, the second control unit 80 generates a composite image that is an image obtained by drawing a predetermined image on the graffiti target image based on an operation signal for performing graffiti processing on the captured image sent from the first control unit 70. Generate. The generated composite image is displayed on the corresponding second display / operation unit 81 or 82 in accordance with a user instruction. When the generation of the composite image as described above is completed, the composite image is sent to the output unit 5. If the print output unit 92 is outputting another composite image, a message to that effect is displayed and sent after waiting for completion.

第2の表示・操作部81、82は、落書きのための編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。第2の通信部83は、編集ユニット4に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The second display / operation units 81 and 82 correspond to the editing operation touch panel 400 for graffiti, and accept a user's operation using a touch pen. The second communication unit 83 corresponds to a network adapter built in the editing unit 4 and functions as an interface for data transmission / reception via the network 6.

第3の制御部90は、出力ユニット5に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、出力処理に関する全体の制御を行う。第3の制御部90は、第2の制御部80から送られてきた合成画像を合成画像データとしてメモリに格納する。印刷出力部92は出力ユニットに内蔵されるネットワークプリンタ35に相当し、メモリに格納された複数の合成画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33から取り出される。   The third control unit 90 is built in the output unit 5 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like, and is stored in an internal memory. When the CPU executes a predetermined program, overall control relating to output processing is performed. The third control unit 90 stores the composite image sent from the second control unit 80 in the memory as composite image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints a plurality of composite image data stored in the memory as a photo sticker (or photo card) (appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided at the lower front of the output unit 5.

また、第3の制御部90は、編集ユニット4から送られてきた合成画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者が作成した合成画像のデータを携帯電話端末にダウンロードできるように、利用者の入力操作を受け付けるための操作画面を第3の表示・操作部91に表示する。この第3の表示・操作部91は出力操作用タッチパネル30に相当し、受け付けた入力操作を操作信号として第3の制御部90に入力する入力手段として機能する。   Further, the third control unit 90 can start printing processing such as a photo sticker based on the composite image sent from the editing unit 4 and simultaneously download the composite image data created by the user to the mobile phone terminal. As described above, an operation screen for accepting a user's input operation is displayed on the third display / operation unit 91. The third display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input unit that inputs the received input operation to the third control unit 90 as an operation signal.

第3の制御部90は、入力された操作信号に基づき、利用者の携帯電話端末に画像データを送信するように非接触通信部94に対して指示を出す。非接触通信部94は非接触通信ポート31に相当する。上記画像データは、非接触通信部94から非接触通信方式の赤外線信号として利用者の携帯電話端末に直接送信される。第3の通信部95は、出力ユニット5に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   Based on the input operation signal, the third control unit 90 issues an instruction to the non-contact communication unit 94 to transmit image data to the user's mobile phone terminal. The non-contact communication unit 94 corresponds to the non-contact communication port 31. The image data is directly transmitted from the non-contact communication unit 94 to the user's mobile phone terminal as a non-contact communication infrared signal. The third communication unit 95 corresponds to a network adapter built in the output unit 5 and functions as an interface for data transmission / reception via the network 6.

ここで、第3の制御部90は、上記入力操作が行われていない間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)やミニゲームの画像等をフレームバッファに書き込むことにより第3の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第3の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第3の表示・操作部91にデモ画像やミニゲームが表示されているときに楽曲や効果音等を流す。   Here, the third control unit 90 writes a demo image (demonstration image) or a mini game image stored in advance in the auxiliary storage device in the frame buffer while the input operation is not performed. Is displayed on the third display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the third display / operation unit 91, and the third display / operation unit 91 displays a demo image or a mini game. Play music, sound effects, etc. when displayed.

ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, It is executed by the CPU. Thereby, the control process of each part by the control device is realized.

<3.遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には、撮影ユニット3と編集ユニット4と出力ユニット5とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では編集処理が行われ、出力ユニット5では出力処理が行われる。なお、或る利用者が撮影ユニット3でプレイしている時に他の利用者は編集ユニット4でプレイし、さらに他の利用者は出力ユニット5で合成画像を出力することができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と編集処理と出力処理とを並行して行うことができる。以下、撮影処理および編集処理の処理手順の概要について説明する。
<3. Processing procedure in a photo creation device for play>
As described above, the play photo creating apparatus includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing with the photographing unit 3, another user can play with the editing unit 4, and yet another user can output a composite image with the output unit 5. ing. In other words, the game photo creation device can perform shooting processing, editing processing, and output processing in parallel. Hereinafter, an outline of the processing procedure of the photographing process and the editing process will be described.

<3.1 撮影処理>
図5は、本実施形態における撮影処理の処理手順を示すフローチャートである。この遊戯用写真作成装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS100)。
<3.1 Shooting process>
FIG. 5 is a flowchart showing a processing procedure of the photographing process in the present embodiment. When the play photo creation device is not used (when no play is performed), a demonstration image is displayed on the shooting operation touch panel 20. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, play is started (step S100).

プレイが開始されると、第1の制御部70は、利用者による撮影モードの選択を受け付ける(ステップS110)。ステップS110では、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択し、明るさを選択し、自動で撮影するか手動で撮影するかを選択し、自動で撮影する場合には撮影用テーマの選択が行われる。この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせを決定する。また手動で撮影する場合は、上記フレームと背景とを利用者が自由に決定する。その後、ステップS120に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   When the play is started, the first control unit 70 accepts selection of a shooting mode by the user (step S110). In step S110, for example, image quality (specifically, one of clear image quality with high contrast, soft image quality with softness, or cool image quality with transparency) is selected, brightness is selected, Whether to shoot automatically or manually is selected. When shooting automatically, a shooting theme is selected. In this case, the first control unit 70 displays on the shooting operation touch panel 20 a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. The selection operation by the person is accepted. Then, the first control unit 70 acquires selection information based on a user's selection operation, and determines a combination of a frame and a background to be used for shooting based on the selected shooting theme. When shooting manually, the user can freely determine the frame and background. Then, it progresses to step S120 and imaging | photography is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

ステップS130では、撮影画像に基づいて生成された落書き対象画像が、撮影操作用タッチパネル20に表示される。詳しくは、ステップS130の処理が行われる都度、図5に示した撮影操作用タッチパネル20の落書き対象画像表示領域203に落書き対象画像が順次追加表示される。その後、ステップS140に進み、第1の制御部70は、予め定められた枚数の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していればステップS150に進み、当該枚数の撮影が終了していなければステップS120に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられる。   In step S <b> 130, the graffiti target image generated based on the photographed image is displayed on the photographing operation touch panel 20. Specifically, each time the process of step S130 is performed, graffiti target images are additionally displayed sequentially in the graffiti target image display area 203 of the photographing operation touch panel 20 shown in FIG. Thereafter, the process proceeds to step S140, and the first control unit 70 determines whether or not a predetermined number of images have been taken. As a result of the determination, if the number of images has been shot, the process proceeds to step S150. If the number of images has not been shot, the process returns to step S120. In practice, a time limit for photographing (for example, 3 minutes) is provided.

ステップS150では、複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者に選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者によって選択された画像を実際の落書き対象画像として第2の制御部80に送る。ステップS150の終了後、ステップS160に進む。ステップS160では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。   In step S150, an image to be actually graffitied is selected (by the user) from a plurality of graffiti subject images. Specifically, the first control unit 70 displays a list of graffiti target images on the shooting operation touch panel 20 in order to allow the user to select an image to be used for graffiti and printing, and performs a selection operation by the user. Accept. Then, the first control unit 70 sends the image selected by the user to the second control unit 80 as an actual graffiti target image. After step S150 ends, the process proceeds to step S160. In step S160, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed.

<3.2 編集処理>
図6は、本実施形態における編集処理の処理手順を示すフローチャートである。上述した撮影処理の終了後、第2の制御部80は、ネットワーク6を介して第1の制御部70から送られる落書き対象画像(図5のステップS150で利用者によって選択された画像)を取得する(ステップS200)。その後、タイマーが所定の時間(利用者に落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS210)。
<3.2 Editing process>
FIG. 6 is a flowchart showing a processing procedure of editing processing in the present embodiment. After completion of the above-described shooting process, the second control unit 80 acquires the graffiti target image (the image selected by the user in step S150 in FIG. 5) sent from the first control unit 70 via the network 6. (Step S200). Thereafter, the timer is set to a predetermined time (time for allowing the user to doodle) and the countdown is started (step S210).

タイマーのカウントダウン開始後、編集ユニット4では、利用者による落書き操作(描画操作)が受け付けられる(ステップS220)。本実施形態では、この落書き操作の1つとして、利用者の目を美しく見せることができる形状の図形を付加画像として、落書き対象画像に含まれる利用者の目(の画像)に対して自動的に書き込むことを指示する操作が可能である点に特徴を有している。   After the timer countdown starts, the editing unit 4 accepts a graffiti operation (drawing operation) by the user (step S220). In the present embodiment, as one of the graffiti operations, a figure having a shape that can make the user's eyes beautifully appears as an additional image, and the user's eyes (image) included in the graffiti target image are automatically used. It is characterized in that an operation for instructing writing can be performed.

具体的には、上記落書き対象画像を含む落書き操作を受け付けるための表示画面(以下「落書き画面」という)に、上記指示を受け付けるためのボタン(以下「アイキャッチボタン」という)が表示されており、このボタンを選択する(すなわち表示されたボタン画像上にペン先を接触させる)操作を行うことにより、自動的に上記書き込みを行う処理(以下では「アイキャッチ書き込み処理」という)が行われる。以下、このアイキャッチ書き込み処理について図7を参照して詳しく説明する。   Specifically, a button for receiving the above instruction (hereinafter referred to as “eye catch button”) is displayed on a display screen (hereinafter referred to as “doodle screen”) for receiving a graffiti operation including the image to be doodled. Then, by performing an operation of selecting this button (that is, bringing the pen tip into contact with the displayed button image), a process of automatically performing the above writing (hereinafter referred to as “eye catch writing process”) is performed. The eye catch writing process will be described in detail below with reference to FIG.

図7は、上記アイキャッチ書き込み処理の処理手順を示すフローチャートである。図7に示すステップS300において、第2の制御部80はパラメータを初期化する。このパラメータには、後述する比較処理に使用される撮影画像(ここでは落書き対象画像)の比較対象部分を示す検索位置や、後述するテンプレート画像の大きさおよび角度の組合せを示す値などを含む。   FIG. 7 is a flowchart showing the processing procedure of the eye catch writing process. In step S300 shown in FIG. 7, the second control unit 80 initializes parameters. This parameter includes a search position indicating a comparison target portion of a photographed image (here, a graffiti target image) used for comparison processing described later, a value indicating a combination of the size and angle of a template image described later, and the like.

続いて、撮影画像(ここでは落書き対象画像)から利用者の目の位置を探索するため、第2の制御部80は、例えば補助記憶装置であるハードディスク装置などに予め記憶されている目およびその近傍のモデルとなる画像(以下「モデル画像」という)をメモリ(RAM)に読み込む(ステップS310)。   Subsequently, in order to search the position of the user's eyes from the captured image (here, the graffiti target image), the second control unit 80, for example, the eyes stored in advance in a hard disk device that is an auxiliary storage device and the like. An image serving as a nearby model (hereinafter referred to as “model image”) is read into a memory (RAM) (step S310).

図8は、このモデル画像を示す図である。このモデル画像はカラーであって、典型的な人の目およびその近傍の形状および色彩を有している。なおこのモデル画像は、落書き対象画像と比較するため、後述するように設定されるパラメータに応じて、その大きさおよび角度を変更される。この変更された画像(およびモデル画像と同一の変更されない画像)を、以下ではテンプレート画像と呼ぶ。よってモデル画像はテンプレート画像となるべき画像である。   FIG. 8 is a diagram showing this model image. This model image is color and has the shape and color of a typical human eye and its vicinity. Since the model image is compared with the graffiti target image, its size and angle are changed according to parameters set as described later. This changed image (and the same unmodified image as the model image) is hereinafter referred to as a template image. Therefore, the model image is an image that should be a template image.

次に、上記テンプレート画像と、検索位置における落書き対象画像の比較対象部分とが比較される(ステップS320)。このテンプレート画像は、後述するステップS360において説明するように、大きさを示すパラメータにしたがってモデル画像を拡大または縮小し、かつ角度を示すパラメータにしたがってさらに回転することにより生成される。このように生成されたテンプレート画像と同一の大きさとなるよう、第2の制御部80は、落書き対象画像から検索位置における画像を切り出し、切り出された画像を比較対象部分としてテンプレート画像と比較し、その近似の程度を示す一致度を算出する。このようにテンプレート画像を使用した比較により画像の一致度を算出する等の手法は、テンプレートマッチングと呼ばれる簡易な手法であって、様々な手法が周知であるが、例えば2つの画像における各画素の階調や色彩に基づき一致度を算出する。さらに詳しく説明すると、例えばテンプレート画像に含まれる、黒目、白目、およびその周囲の肌色を表すと判定される各画素の数と、上記切り出された画像に含まれる上記各画素の数とを比較することにより一致度を算出することができる。   Next, the template image is compared with the comparison target portion of the graffiti target image at the search position (step S320). This template image is generated by enlarging or reducing the model image according to the parameter indicating the size and further rotating according to the parameter indicating the angle, as will be described in step S360 described later. The second control unit 80 cuts out the image at the search position from the graffiti target image so as to be the same size as the template image generated in this way, compares the cut out image with the template image as a comparison target portion, The degree of coincidence indicating the degree of approximation is calculated. The method of calculating the degree of coincidence of images by comparison using template images in this way is a simple method called template matching, and various methods are well known. For example, each pixel in two images The degree of coincidence is calculated based on the gradation and color. More specifically, for example, the number of pixels determined to represent black eyes, white eyes, and surrounding skin colors included in the template image is compared with the number of pixels included in the clipped image. Thus, the degree of coincidence can be calculated.

続いて、上記ステップ320において算出された一致度が所定の閾値以上であるか否かが判定される(ステップS330)。この判定の結果、一致度が閾値以上である場合(ステップS330においてYesである場合)、処理はステップS400に進み、一致度が閾値未満である場合(ステップS330においてNoである場合)、処理はステップS340に進む。   Subsequently, it is determined whether or not the degree of coincidence calculated in step 320 is equal to or greater than a predetermined threshold (step S330). As a result of this determination, if the coincidence is equal to or greater than the threshold (if Yes in step S330), the process proceeds to step S400. If the coincidence is less than the threshold (if No in step S330), the process is as follows. Proceed to step S340.

ステップS340において、第2の制御部80は、テンプレート画像と比較されるべき画像の次の検索位置を設定する。具体的には、この次の検索位置は、比較されるべき画像の現在の検索位置から所定の画素(例えば2画素)だけ右へ移動した位置であり、当該位置からテンプレート画像の(左右の)幅だけ右に移動した位置が落書き対象画像の右端を超える場合には、現在の検索位置から所定の画素(例えば2画素)だけ下へ移動しさらに当該位置から落書き対象画像の左端へ移動した位置である。このように検索位置はいわゆるラスター順に従って変化するが、全画面を検索可能であればどのような順番で変化してもよい。   In step S340, the second control unit 80 sets the next search position of the image to be compared with the template image. Specifically, the next search position is a position moved to the right by a predetermined pixel (for example, two pixels) from the current search position of the images to be compared, and the template image (left and right) is moved from this position to the right. When the position moved to the right by the width exceeds the right edge of the graffiti target image, the position moved downward by a predetermined pixel (for example, 2 pixels) from the current search position, and further moved from the position to the left edge of the graffiti target image It is. Thus, the search position changes according to the so-called raster order, but may be changed in any order as long as the entire screen can be searched.

次に、第2の制御部80は、上記次の検索位置からテンプレート画像の(上下の)高さだけ下に移動した位置が落書き対象画像の下端を超えるか否かを判定することにより、落書き対象画像の全範囲を検索したか否かを判定する(ステップS350)。上記位置が下端を超えることにより全範囲を検索したと判定される場合(ステップS350においてYesである場合)、処理はステップS360に進み、上記位置が下端を超えないことにより未だ全範囲を検索していないと判定される場合(ステップS350においてNoである場合)、処理はステップS320へ戻り、ステップS330の処理において一致度が閾値以上となるか、または落書き対象画像の全範囲を検索するまで繰り返される(S350→S320→S330→S340→S350)。   Next, the second control unit 80 determines whether or not the position moved downward by the height (up and down) of the template image from the next search position exceeds the lower end of the graffiti target image. It is determined whether or not the entire range of the target image has been searched (step S350). If it is determined that the entire range has been searched because the position exceeds the lower end (if Yes in step S350), the process proceeds to step S360, and the entire range is still searched because the position does not exceed the lower end. If it is determined that it is not (No in step S350), the process returns to step S320, and is repeated until the degree of coincidence is greater than or equal to the threshold in the process of step S330 or the entire range of the graffiti target image is searched. (S350 → S320 → S330 → S340 → S350).

続いて、第2の制御部80は、テンプレート画像の大きさおよび角度を次の大きさ・角度の組合せに設定し、新たな大きさおよび角度を有するテンプレート画像を生成する(ステップS360)。ここで上記組合せに含まれる大きさを示すパラメータは、モデル画像の拡大率または縮小率を示し、角度を示すパラメータはモデル画像の回転角度を示すものである。これらの値は、一般的な撮影画像に含まれる目の大きさや角度にしたがって、適宜の範囲内で適宜の間隔を空けて予め設定され、上記組合せとして(補助記憶装置などに)順に記憶されている。なお、この組合せの順番は一般的な撮影画像における(統計的な)頻度順であれば素早く一致する場合を検索することができる。   Subsequently, the second control unit 80 sets the size and angle of the template image to the next combination of size and angle, and generates a template image having a new size and angle (step S360). Here, the parameter indicating the size included in the combination indicates the enlargement ratio or the reduction ratio of the model image, and the parameter indicating the angle indicates the rotation angle of the model image. These values are set in advance at appropriate intervals within an appropriate range according to the size and angle of eyes included in a general captured image, and are stored in order (in an auxiliary storage device or the like) as the above combinations. Yes. If the order of this combination is the (statistical) frequency order in a general photographed image, it is possible to quickly search for a case where they match.

また、テンプレート画像を回転させる場合、単純にモデル画像を回転させる構成であってもよいが、ここでは画像の比較処理を容易にするため、モデル画像を回転させた後、回転させたモデル画像から、目を示す画像を含みかつ(菱形状でない回転前と同様の)所定の長方形状の画像となるよう画像を切り取り、必要に応じて肌色の領域を補完することによりテンプレート画像を生成する。   When rotating the template image, the model image may be simply rotated. However, in order to facilitate image comparison processing, the model image is rotated and then rotated from the rotated model image. The template image is generated by cutting out the image so as to be a predetermined rectangular image (similar to that before rotation which is not a rhombus shape) including the image showing the eyes, and complementing the skin color region as necessary.

さらにこのステップS360の処理において、次の(大きさ・角度の)組合せが存在しない場合には、全組合せが検索されたことを意味するので、新たなテンプレート画像の生成は行わず、全組合せが検索されたことを示すフラグを立てる。   Further, in the process of step S360, if there is no next (size / angle) combination, it means that all combinations have been searched. Therefore, no new template image is generated, and all combinations are found. Set a flag indicating that the search has been performed.

次に、第2の制御部80は、ステップS360において設定されるフラグを参照して全組合せを検索したか否かを判定する(ステップS370)。全組合せを検索したと判定される場合(ステップS370においてYesである場合)、処理はステップS380に進み、未だ全組合せを検索していないと判定される場合(ステップS370においてNoである場合)、処理はステップS320へ戻り、ステップS330の処理において一致度が閾値以上となるか、または全組合せを検索するまで繰り返される(S370→S320→S330→S340→…→S370)。   Next, the second control unit 80 determines whether or not all combinations have been searched with reference to the flag set in step S360 (step S370). If it is determined that all combinations have been searched (Yes in step S370), the process proceeds to step S380, and if it is determined that all combinations have not yet been searched (if No in step S370), The process returns to step S320, and is repeated until the matching degree is equal to or greater than the threshold in the process of step S330 or until all combinations are searched (S370 → S320 → S330 → S340 →... → S370).

以上のような繰り返し処理は、具体的には図9に示すように行われる。図9はテンプレート画像による目の位置の検索手順を説明するための図であり、より詳しく説明すると、図9(a)は或るテンプレート画像について画像内の全範囲で目の位置の検索が失敗した例を示す図であり、図9(b)は或るテンプレート画像について目の位置の検索が成功した例を示す図である。なお、図中の矢印は、検索位置が右方向へ移っていくことによりテンプレート画像と落書き対象画像との比較が順になされることを示している。   The repetition process as described above is specifically performed as shown in FIG. FIG. 9 is a diagram for explaining a procedure for searching for an eye position using a template image. More specifically, FIG. 9A shows that the search for the eye position fails in the entire range of an image for a certain template image. FIG. 9B is a diagram showing an example in which the eye position search is successful for a certain template image. Note that the arrows in the figure indicate that the template image and the graffiti target image are sequentially compared as the search position moves to the right.

図9(a)において、テンプレート画像TP1はモデル画像と同一の大きさおよび角度である。この図9(a)に示されるように、テンプレート画像TP1に一致する(より正確には閾値以上の一致度を有する)画像部分は、落書き対象画像内には存在しないことがわかる。なお、図中の女性の目の形はテンプレート画像TP1に相似するが大きさが異なるため、一致しない(一致度が閾値以下となる)。この図9(a)に示す場合には、落書き対象画像の全範囲において目の位置の検索を失敗しているが、前述したようにモデル画像を適宜に拡大・縮小または回転させることにより様々なテンプレート画像が生成され、目の位置の検索が繰り返される。   In FIG. 9A, the template image TP1 has the same size and angle as the model image. As shown in FIG. 9A, it can be seen that an image portion matching the template image TP1 (more precisely, having a matching degree equal to or higher than a threshold) does not exist in the graffiti target image. Note that the shape of the female eye in the figure is similar to the template image TP1, but does not match because the size is different (the matching degree is equal to or less than the threshold). In the case shown in FIG. 9A, the search for the eye position in the entire range of the graffiti target image has failed, but as described above, various models can be obtained by appropriately enlarging / reducing or rotating the model image. A template image is generated and the search for eye positions is repeated.

図9(b)において、テンプレート画像TP2はモデル画像を反時計回りに30度回転させた画像に基づき生成されている。この図9(b)に示されるように、テンプレート画像TP2に一致する(より正確には閾値以上の一致度を有する)画像部分は、落書き対象画像内の第1の領域A1および第2の領域A2である。この一致した部分に含まれる黒目にアイキャッチ画像が書き込まれる。この処理については詳しく後述する。以上のように落書き対象画像の全範囲に渡ってテンプレート画像の大きさおよび角度を変更して比較することが繰り返され、この大きさおよび角度の組合せが全て適用されると上記繰り返し処理が終了する。   In FIG. 9B, the template image TP2 is generated based on an image obtained by rotating the model image 30 degrees counterclockwise. As shown in FIG. 9B, the image portion that matches the template image TP2 (more precisely, has a matching degree equal to or higher than the threshold value) includes the first region A1 and the second region in the graffiti target image. A2. An eye-catching image is written in the black eye included in the matched portion. This process will be described in detail later. As described above, the comparison is performed by changing the size and angle of the template image over the entire range of the graffiti target image, and when all the combinations of the size and angle are applied, the above iterative process ends. .

続いて、第2の制御部80は、アイキャッチ画像の書き込みが(一度でも)行われたか否かを、後述するステップS420において設定される検索成功フラグが立てられたか否かで判定する(ステップS380)。検索成功フラグが立てられている場合(ステップS380においてYesである場合)、アイキャッチ書き込み処理は終了し、図6に示すステップS220における落書き操作の受付処理に戻る。検索成功フラグが立てられていない場合(ステップS380においてNoである場合)、処理はステップS390に進む。   Subsequently, the second control unit 80 determines whether or not the eye catch image has been written (even once) based on whether or not a search success flag set in step S420 described later has been set (step S420). S380). If the search success flag is set (Yes in step S380), the eye catch writing process ends, and the process returns to the graffiti operation acceptance process in step S220 shown in FIG. If the search success flag has not been set (No in step S380), the process proceeds to step S390.

ステップS390において、第2の制御部80は、アイキャッチ書き込みができなかったことを示す表示などのエラー処理を行う。すなわちこのエラー処理では、全組合せの検索が終了したにもかかわらず、落書き対象画像内に、所定の閾値以上の一致度で一致するテンプレート画像が存在しないため、利用者の目を美しく見せることができる図形を、落書き対象画像に含まれる利用者の目(の画像)に対して自動的に書き込むことが全くできなかったことを利用者に知らせるための表示等が行われる。その後、アイキャッチ書き込み処理は終了し、図6に示すステップS220における落書き操作の受付処理に戻る。   In step S <b> 390, the second control unit 80 performs error processing such as a display indicating that the eye catch writing cannot be performed. In other words, in this error processing, there is no template image that matches with a degree of coincidence equal to or higher than a predetermined threshold in the graffiti target image even though all combinations have been searched, so that the user's eyes can be seen beautifully. A display or the like for informing the user that the figure that can be made cannot be automatically written into the user's eye (image) included in the graffiti target image is performed. Thereafter, the eye catch writing process ends, and the process returns to the graffiti operation acceptance process in step S220 shown in FIG.

次に、ステップS400において、(上記ステップS330で画像の一致度が所定の閾値以上であると判定されたことから)、予め定められたアイキャッチ画像を落書き対象画像に含まれる黒目に書き込むために当該黒目の中心座標を算出する。この黒目の中心座標の算出には、例えばテンプレート画像において黒目の中心があるべき位置と同様の相対位置に落書き対象画像内の比較対象部分に含まれる黒目の中心があるものとして、前述したパラメータ(すなわち検索位置、大きさ、および角度)に基づき、黒目の中心座標を算出する手法など種々の周知の手法が考えられる。   Next, in step S400 (because it was determined in step S330 that the degree of coincidence of the images is equal to or greater than a predetermined threshold value), a predetermined eye-catching image is written to the black eye included in the graffiti target image. The center coordinates of the black eye are calculated. For the calculation of the center coordinates of the black eye, it is assumed that the center of the black eye included in the comparison target part in the graffiti target image is at the same relative position as the position where the center of the black eye should be in the template image, for example. That is, various known methods such as a method of calculating the center coordinates of the black eye based on the search position, size, and angle) can be considered.

ここではどのような周知の手法を採用してもよいが、上記比較対象部分に含まれる黒目のうち、円形の瞳孔部分を検出しその中心座標を算出する手法を採用することが好適である。この手法では、例えば瞳孔部分はほぼ黒色であることを利用して、比較対象部分に含まれるほぼ黒色の円形領域を検出し、当該円形領域の中心座標を黒目の中心座標とする。このように瞳孔の中心座標を検出する構成は、瞳孔の検出が容易かつ正確にできることから好適であり、特に撮影時において一般的に瞳孔が目蓋で隠されることがないことからも好適である。   Here, any known method may be employed, but it is preferable to employ a method of detecting a circular pupil portion of black eyes included in the comparison target portion and calculating the center coordinates thereof. In this method, for example, a substantially black circular region included in the comparison target portion is detected using the fact that the pupil portion is substantially black, and the center coordinates of the circular region are set as the center coordinates of the black eye. The configuration for detecting the center coordinates of the pupil in this manner is preferable because the detection of the pupil can be easily and accurately, and is particularly preferable because the pupil is generally not hidden by the eye lid during photographing. .

なお上記手法によれば、虹彩部分を瞳孔部分として誤検出したとしても虹彩部分の中心座標は瞳孔の中心座標と通常一致する。そのため正確に黒目の中心座標を算出することができる。また上記手法に代えて虹彩部分の中心座標を検出してもよい。この場合には瞳孔部分が明るく映っている等の理由により検出不能である場合にも黒目の中心座標を正確に算出することができる。さらに目蓋等により虹彩が部分的に隠されている場合でも(虹彩外縁の一部から)その中心座標を容易に算出することができる。この手法も結果的に瞳孔の中心座標を検出する手法であると言える。   According to the above method, even if the iris portion is erroneously detected as the pupil portion, the center coordinates of the iris portion usually coincide with the center coordinates of the pupil. Therefore, the center coordinates of the black eye can be accurately calculated. Further, instead of the above method, the center coordinates of the iris portion may be detected. In this case, the center coordinates of the black eye can be accurately calculated even when the detection is impossible due to a bright pupil part. Furthermore, even when the iris is partially hidden by the eye lid or the like, the center coordinates can be easily calculated (from a part of the outer edge of the iris). As a result, it can be said that this method is also a method of detecting the center coordinates of the pupil.

続いて、第2の制御部80は、黒目の中心座標を基点に所定のアイキャッチ画像を(付加画像として)貼り付ける(ステップS410)。具体的には、テンプレート画像の大きさおよび角度に応じて、アイキャッチ画像を拡大・縮小または回転させ、得られた画像を落書き対象画像に含まれる利用者の黒目の画像に対して(大きさおよび角度を合わせて)書き込む(上書きする)。以下、図10および図11を参照して具体的に説明する。   Subsequently, the second control unit 80 pastes a predetermined eye catch image (as an additional image) using the center coordinates of the black eye as a base point (step S410). Specifically, according to the size and angle of the template image, the eye-catching image is enlarged / reduced or rotated, and the obtained image is compared with the size of the user's black eye included in the graffiti target image (size). Write (overwrite) at the same angle. Hereinafter, a specific description will be given with reference to FIGS. 10 and 11.

図10は、アイキャッチ画像を示す図である。図10に示すアイキャッチ画像Geは、(目が活き活きと見えるような)明るい階調の3つの図形G1〜G3からなる。また、これら3つの図形G1〜G3以外の領域は透明であるが、虹彩や瞳孔の像の一部であってもよい。さらにこのアイキャッチ画像Geの中心位置は一点鎖線で示されている。このアイキャッチ画像Geは、上記中心位置(ここではアイキャッチ画像Geの中心位置であるが、中心位置以外の所定位置に設定されていてもよい)をモデル画像における黒目の中心位置に合わせてモデル画像に(上書き)合成した場合、上記3つの図形G1〜G3が虹彩上のモデル画像上の適宜の位置に配置されるよう構成されている。したがって、このアイキャッチ画像Geを付加画像として、(モデル画像に一致または近似する)落書き対象画像内の黒目部分に対して、適宜大きさや角度を変えて(上書き)合成すると、目を美しく見せることができる。   FIG. 10 is a diagram illustrating an eye catch image. The eye catch image Ge shown in FIG. 10 is composed of three figures G1 to G3 with bright gradations (so that the eyes can be seen vividly). The regions other than these three figures G1 to G3 are transparent, but may be a part of an image of an iris or pupil. Further, the center position of the eye catch image Ge is indicated by a one-dot chain line. The eye catch image Ge is a model in which the center position (here, the center position of the eye catch image Ge, but may be set to a predetermined position other than the center position) is aligned with the center position of the black eye in the model image. When the image is overwritten (overwritten), the three graphics G1 to G3 are arranged at appropriate positions on the model image on the iris. Therefore, if this eye-catching image Ge is used as an additional image and the black eye portion in the graffiti target image (which matches or approximates the model image) is appropriately changed in size and angle (overwritten), the eye looks beautiful. Can do.

またこのように円形の黒目部分に対して、大きさや角度を変えてすなわちモデル画像を適宜に拡大、縮小、または回転させて合成することは、(目蓋等を含む)目全体の画像に対して合成するよりも容易である。なぜなら目全体の形は(人や表情によって)多様なものとなるが、円形である黒目の形状は変化しないため、正確な大きさまたは角度を設定し、正しく位置を合わせることを簡単に行うことができるからである。   In addition, it is possible to change the size and angle of a circular black eye portion, that is, to appropriately enlarge, reduce, or rotate the model image and combine it with the entire eye image (including the eyelid). Easier to synthesize. Because the shape of the whole eye can vary (depending on the person and facial expression), but the shape of the round black eye does not change, so it is easy to set the correct size or angle and align it correctly. Because you can.

なお、図10に示すアイキャッチ画像は例示であって、その他には星形やハート型などの形状が考えられるが、アイキャッチ画像は、利用者の目を美しく撮影することができるような形状、具体的には目を活き活きとまたは印象的に撮影することができるような、または利用者の目を楽しく撮影することができるような、およそ撮影に適する形状であればよい。また、当該図形の色彩は単に白色であってもよいが、上記形状の場合と同様、およそ撮影に適する色彩であればよい。   Note that the eye catch image shown in FIG. 10 is an example, and other shapes such as a star shape and a heart shape are conceivable. However, the eye catch image has a shape that allows the user's eyes to be photographed beautifully. Specifically, the shape may be any shape that is suitable for photographing so that the photograph can be taken vividly or impressively, or the user's eyes can be enjoyed. Further, the color of the figure may be simply white, but it may be any color that is suitable for photographing as in the case of the above shape.

図11は、アイキャッチ画像を落書き対象画像の目の部分に書き込んだ状態を示す図である。図11に示す目の部分画像は、例えば図9に示す領域A1の画像を拡大した画像に相当し、瞳孔領域ppの中心座標にアイキャッチ画像の中心を合わせ、さらにアイキャッチ画像を構成する3つの図形G1〜G3が反時計回りに30度回転されて虹彩領域ir部分に書き込まれている(上書き合成されている)。なお、図11に示す白目領域whにアイキャッチ画像を書き込んでもよいが、白目領域whにはもともと高輝度の図形が映りにくいため、アイキャッチ画像は上記虹彩領域ir(または虹彩領域irと瞳孔領域ppとを含む黒目部分)に書き込むことが好適である。なお、黒目部分は円形であるため、アイキャッチ画像を回転させずに書き込む構成であってもよいが、目蓋などにより隠されやすい部分に上記図形が差し掛からないようアイキャッチ画像が構成されている場合には回転させる本実施形態の構成が特に好ましい。   FIG. 11 is a diagram illustrating a state in which the eye catch image is written in the eye portion of the graffiti target image. The partial eye image shown in FIG. 11 corresponds to, for example, an image obtained by enlarging the image of the area A1 shown in FIG. 9, and the center of the eye catch image is aligned with the center coordinates of the pupil region pp to further form the eye catch image 3 Two figures G1 to G3 are rotated 30 degrees counterclockwise and written in the iris area ir (overwritten and synthesized). Note that an eye-catching image may be written in the white-eye area wh shown in FIG. 11. However, since the high-brightness figure is originally difficult to appear in the white-eye area wh, the eye-catching image is the iris area ir (or the iris area ir and the pupil area). It is preferable to write in a black eye portion including pp). Since the black eye portion is circular, the eye catch image may be written without being rotated. However, the eye catch image is configured so that the above-mentioned figure does not reach the portion that is easily hidden by the eyelid or the like. In this case, the configuration of the present embodiment that is rotated is particularly preferable.

次に、ステップS420において、(上記ステップS380における判定に使用される)検索成功フラグを立て、次の検索位置を設定する。この次の検索位置は、ステップS340において設定される次の検索位置とは異なり、テンプレート画像と既に比較された落書き対象画像内の部分を含まないように設定される。検索を高速化し、誤検出を防ぐためである。具体的には、ここでの次の検索位置は、比較されるべき画像の現在の検索位置からテンプレート画像の左右の幅だけ右へ移動した位置であり、当該位置からテンプレート画像の(左右の)幅だけ右に移動した位置が落書き対象画像の右端を超える場合には、現在の検索位置から所定画素(例えば2画素)だけ下へ移動し、さらに当該位置から落書き対象画像の左端へ移動した位置である。その後、処理はステップS350へ進む。ステップS350以下の処理内容については前述したとおりである。なお、このステップS420における次の検索位置の設定内容はステップS340における処理内容と同一であってもよい。以上のような処理手順でアイキャッチ書き込み処理が行われると、図6に示すステップS220における落書き操作の受付処理に戻る。   Next, in step S420, a search success flag (used for determination in step S380) is set and the next search position is set. Unlike the next search position set in step S340, the next search position is set so as not to include a portion in the graffiti target image that has already been compared with the template image. This is to speed up the search and prevent false detection. Specifically, the next search position here is a position moved to the right by the left and right widths of the template image from the current search position of the images to be compared. When the position moved right by the width exceeds the right edge of the graffiti target image, the position is moved down by a predetermined pixel (for example, 2 pixels) from the current search position, and further moved from the position to the left edge of the graffiti target image. It is. Thereafter, the process proceeds to step S350. The processing content after step S350 is as described above. Note that the setting content of the next search position in step S420 may be the same as the processing content in step S340. When the eye catch writing process is performed according to the above processing procedure, the process returns to the graffiti operation acceptance process in step S220 shown in FIG.

図6に示されるように、その後利用者に落書きを許可する残り時間が60秒になると、第2の制御部80は、落書き時間を延長するか否かを判定する(ステップS230)。落書き時間を延長するか否かは、次にこのユニット4aまたは4bでプレイすることになる利用者が撮影室2にいるか否か(撮影ユニット3で撮影処理が行われているか否か)によって判定される。その結果、落書き時間を延長する旨の判定がなされると、ステップS240に進む。一方、落書き時間を延長しない旨の判定がなされると、ステップS250に進む。ステップS240では、タイマーが所定の時間(利用者に更に落書きを許可する時間)に設定され、再度カウントダウンが開始される。ステップS240の終了後、ステップS250に進む。   As shown in FIG. 6, when the remaining time for allowing the user to doodle is 60 seconds thereafter, the second control unit 80 determines whether or not to extend the doodle time (step S230). Whether or not to extend the graffiti time is determined by whether or not the user who will play next in the unit 4a or 4b is in the shooting room 2 (whether or not the shooting process is performed in the shooting unit 3). Is done. As a result, if it is determined to extend the graffiti time, the process proceeds to step S240. On the other hand, if it is determined that the graffiti time is not extended, the process proceeds to step S250. In step S240, the timer is set to a predetermined time (time for allowing the user to further doodle), and the countdown is started again. After step S240 ends, the process proceeds to step S250.

ステップS250では、ステップS220と同様、編集ユニット4で利用者による落書き操作が受け付けられる。よってさらにアイキャッチ書き込み処理も可能となる。そして落書き時間が0になる(終了する)と、出力される写真の分割パターンの選択が行われる(ステップS260)。具体的には、第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。そして、第2の制御部80は、利用者の選択操作に基づいて、選択情報を取得する。その後処理はステップS270に進む。   In step S250, as in step S220, the editing unit 4 accepts a graffiti operation by the user. Therefore, it is possible to perform eye catch writing processing. When the graffiti time reaches 0 (ends), the division pattern of the output photo is selected (step S260). Specifically, the second control unit 80 displays on the editing operation touch panel 400 a screen for allowing the user to select one of the plurality of division patterns prepared in advance, and the user can select the division pattern. The selection operation by is accepted. And the 2nd control part 80 acquires selection information based on a user's selection operation. Thereafter, the process proceeds to step S270.

ステップS270では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力ユニット5に導くための画面を編集操作用タッチパネル400に表示する。これにより、編集処理が終了する。その後出力ユニット5において前述した出力処理が行われる。   In step S270, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the editing process ends. Thereafter, the output processing described above is performed in the output unit 5.

<4.効果>
以上のように、本実施形態では、図7に示すアイキャッチ書き込み処理において、テンプレート画像と落書き対象画像の比較対象部分とを比較することにより、落書き対象画像内に含まれる利用者の目(に相当する画像部分)を自動的に検出し、検出された黒目の中心にアイキャッチ画像を適宜に貼り付ける。このことにより、映像装置や発光体などの新たな部品を設けることなく、また利用者の手による図形の書き込み(落書き)を要することなく、利用者の目を美しく撮影したと同様に、自動的に利用者の目に所望の図形(典型的にはアイキャッチ)が付された合成画像を生成することができる。
<4. Effect>
As described above, in the present embodiment, in the eye catch writing process shown in FIG. 7, the template image and the comparison target portion of the graffiti target image are compared, so that the user's eyes ( Corresponding image portion) is automatically detected, and an eye catch image is appropriately pasted to the center of the detected black eye. As a result, it does not require any new parts such as a video device or a light emitter, and does not require drawing of the figure by hand (doodle). It is possible to generate a composite image in which a desired figure (typically an eye catch) is attached to the user's eyes.

<5.変形例>
上記実施形態では、落書き操作の受付処理(S220,S250)中に、利用者によってアイキャッチボタンが選択される操作が受け付けられることにより、アイキャッチ書き込み処理が行われる構成であるが、撮影モードの選択時(S110)や落書き対象画像の選択時(S150)、または出力処理時など、落書き操作時以外の時点において上記操作が受け付けられ、アイキャッチ書き込み処理が行われる構成であってもよい。
<5. Modification>
In the above embodiment, the eye catch writing process is performed by accepting an operation for selecting the eye catch button by the user during the graffiti operation accept process (S220, S250). A configuration may be adopted in which the above operation is accepted and eye catch writing processing is performed at a time other than the graffiti operation, such as at the time of selection (S110), at the time of selection of the graffiti target image (S150), or during output processing.

また、上記アイキャッチボタンが省略され、利用者の選択を待たず常にアイキャッチ画像が書き込まれる構成であってもよい。例えば、落書き操作の受付処理(S220)前に図7に示す処理が常に行われる構成であってもよいし、落書きが終了した後に常に行われてもよい。   The eye catch button may be omitted, and an eye catch image may be always written without waiting for the user's selection. For example, the configuration shown in FIG. 7 may always be performed before the graffiti operation acceptance processing (S220), or may be always performed after the graffiti ends.

さらに、上記アイキャッチボタンに代えて、複数のアイキャッチ選択ボタンが設けられるなど、利用者の操作によって複数のアイキャッチ画像を選択可能な構成であってもよい。例えば、複数のアイキャッチボタンに対応して、予め記憶された異なるアイキャッチ画像が関連付けられており、利用者によって或るアイキャッチ画像に対応するアイキャッチボタンが選択されると、選択されたアイキャッチボタンに対応するアイキャッチ画像を使用したアイキャッチ書き込み処理が行われる構成であってもよい。このような構成によって、利用者は、予め用意された様々なアイキャッチ画像から好ましいアイキャッチ画像を選択することが可能となる。   Furthermore, instead of the eye catch button, a plurality of eye catch selection buttons may be provided, and a configuration in which a plurality of eye catch images can be selected by a user operation may be adopted. For example, when different eye catch images stored in advance are associated with a plurality of eye catch buttons and the user selects an eye catch button corresponding to a certain eye catch image, the selected eye catch button is selected. A configuration in which an eye catch writing process using an eye catch image corresponding to a catch button is performed may be used. With such a configuration, the user can select a preferable eye catch image from various eye catch images prepared in advance.

さらにまた、上記アイキャッチボタンに加えて、アイキャッチ画像を消去するボタンが設けられるなど、利用者の操作によって既に合成されたアイキャッチ画像を合成画像から消去可能な構成であってもよい。例えば、アイキャッチ画像を書き込む前の(目の)撮影画像を保存しておき、上記消去ボタンが選択されると、保存された書き込み前の画像が書き戻されることにより元の状態に復元される処理が行われる構成であってもよい。このような構成によって、利用者はアイキャッチ画像の合成を簡単に取り消すことが可能となる。   Furthermore, in addition to the eye catch button, a button that erases the eye catch image may be provided. For example, an eye catch image already synthesized by the user's operation may be erased from the synthesized image. For example, when a captured image of (eye) before writing an eye-catching image is saved and the delete button is selected, the saved image before writing is rewritten and restored to the original state. A configuration in which processing is performed may be used. With such a configuration, the user can easily cancel the synthesis of the eye catch image.

上記実施形態では、予め記憶されたモデル画像が1つ読み込まれ(S310)、読み込まれたモデル画像を拡大・縮小、回転することによりテンプレート画像が生成される構成であるが、当該モデル画像が複数記憶されていてもよい。この構成では、図7に示されるアイキャッチ書き込み処理がモデル画像毎に繰り返される。   In the above embodiment, one model image stored in advance is read (S310), and the template image is generated by enlarging / reducing and rotating the read model image. It may be stored. In this configuration, the eye catch writing process shown in FIG. 7 is repeated for each model image.

また、テンプレートを使用しない周知の特徴抽出手法など、撮影画像から目の位置を判定することができる様々な画像認識手法を使用することもできる。例えば(肌色領域の形状を使用するなどの周知の手法に基づき)顔検出を行い、検出結果としての顔に存在するべき目の位置近傍に存在する目の位置を検出し、検出された目の位置にアイキャッチ画像を書き込む構成であってもよい。このように顔検出を行った後に目を検出する構成であれば、画像全体に対して目検出を行う場合よりも高速かつ正確に目検出を行うことができ、また周知の顔検出用LSIチップなどのハードウェアを使用することにより、ソフトウェア処理の場合よりも目検出を高速化することができる。   In addition, various image recognition methods that can determine the position of the eye from the captured image, such as a well-known feature extraction method that does not use a template, can also be used. For example, face detection is performed (based on a well-known method such as using the shape of a skin color region), the position of an eye that exists in the vicinity of the eye position that should exist on the face as a detection result is detected, and the detected eye It may be configured to write an eye catch image at the position. If the eye is detected after face detection is performed in this manner, eye detection can be performed at a higher speed and more accurately than when eye detection is performed on the entire image, and a well-known face detection LSI chip is used. By using hardware such as the above, it is possible to speed up eye detection compared to software processing.

上記実施形態では、落書き対象画像における利用者の黒目の中心位置に、予め記憶されたアイキャッチ画像の中心位置を合わせ、アイキャッチ画像を適宜拡大・縮小(および回転)して上記黒目に貼り付ける構成であるが、アイキャッチ画像を適宜に貼り付けることができる様々な手法を使用することが可能である。例えば、落書き対象画像における利用者の虹彩の外縁(形状)を検出し、検出された外縁(の大きさ)に合わせてアイキャッチ画像を適宜拡大・縮小して貼り付ける構成であってもよい。   In the above embodiment, the center position of the eye catch image stored in advance is aligned with the center position of the user's black eye in the graffiti target image, and the eye catch image is appropriately enlarged / reduced (and rotated) and pasted to the black eye. Although it is a structure, it is possible to use various methods which can affix an eye catch image suitably. For example, the configuration may be such that the outer edge (shape) of the user's iris in the graffiti target image is detected, and the eye catch image is appropriately enlarged / reduced and pasted in accordance with the detected outer edge (size).

また、利用者の目が半眼である場合など、上記黒目(虹彩部分および瞳孔部分)の一部が目蓋に隠されている場合、目蓋に隠されていない黒目部分にのみアイキャッチ画像を適宜切り取って貼り付ける構成であってもよい。例えば、肌色の目蓋とほぼ黒色の黒目とはその画素の明るさ(階調値)に差があることから、アイキャッチ画像を構成する(典型的には)明るい図形を貼り付ける場合、落書き対象画像における対象画素が所定の閾値以上に明るい場合にはその場所は目蓋であるとして、上記明るい図形を貼り付けないように構成してもよい。   In addition, when the user's eyes are half-eye, etc., when part of the black eye (iris part and pupil part) is hidden by the eyelid, the eye-catching image is displayed only on the black eye part that is not hidden by the eyelid. The structure which cuts out and affixes suitably may be sufficient. For example, since there is a difference in the brightness (gradation value) of the pixel between the skin-colored eyelid and the nearly black eye, when you paste a (typically) bright figure that makes up an eye-catching image, graffiti When the target pixel in the target image is brighter than a predetermined threshold value, the place may be the eye lid, and the bright figure may not be pasted.

上記実施形態では、落書き対象画像の目の位置にアイキャッチ画像を書き込む構成であるが、アイキャッチ画像以外の利用者の目を美しくまたは楽しく見せるような、およそ撮影に適する形状(および色彩)の画像を書き込む構成であればよい。例えば、落書き対象画像に含まれる瞳孔の形が(猫の目のように)垂直のスリット状、または(山羊の目のように)水平のスリット状になるよう、当該瞳孔の位置に予め記憶された上記スリット状の瞳孔の図形を書き込む構成などであってもよい。   In the above embodiment, the eye-catching image is written at the eye position of the graffiti target image. However, the shape (and color) suitable for shooting is such that the eyes of the user other than the eye-catching image can be seen beautifully or happily. Any configuration for writing an image may be used. For example, the shape of the pupil included in the graffiti target image is stored in advance at the position of the pupil so that it is a vertical slit shape (like a cat's eye) or a horizontal slit shape (like a goat's eye). Alternatively, a configuration for writing the slit-shaped pupil figure may be used.

なおこのような上記実施形態および変形例などの構成は、落書き対象画像に含まれる目の虹彩の色を変更したり、目の大きさを変更するなど、落書き対象画像に含まれる画像を部分的に変形する構成とは異なる。すなわち画像を部分的に変形する構成は、予め記憶された図形の画像を書き込む本実施形態などの構成とは異なる。したがって、画像を変形する構成によって、利用者の目を美しくまたは楽しく見せることができるとしても、それは単なる変形に過ぎない。そのため利用者にとって容易に予測可能であって意外性が低いため、本実施形態の場合よりも遊戯性または娯楽性が乏しくなり、また強い印象を与えることも困難となる。このことから本実施形態およびその変形例のように、利用者の目を美しくまたは楽しく見せるような、およそ撮影に適する形状(および色彩)の画像を落書き対象画像に対して書き込む構成が好ましい。   Note that the configuration of the embodiment and the modification example described above partially changes the image included in the graffiti target image, such as changing the iris color included in the graffiti target image or changing the size of the eye. It differs from the structure which deform | transforms. That is, the configuration for partially deforming the image is different from the configuration of the present embodiment in which a graphic image stored in advance is written. Therefore, even if the structure of deforming the image can make the user's eyes look beautiful or fun, it is merely a deformation. Therefore, it is easily predictable for the user and is less surprising, so that the playability or entertainment is less than in the case of this embodiment, and it is difficult to give a strong impression. Therefore, it is preferable to write an image of a shape (and color) suitable for photographing so that the user's eyes can be seen beautifully or happily on the graffiti target image as in the present embodiment and its modifications.

3…撮影ユニット
4…編集ユニット
5…出力ユニット
6…ネットワーク(LAN)
10…カメラ
20…撮影操作用タッチパネル
30…出力操作用タッチパネル
35…ネットワークプリンタ
31…非接触通信ポート(赤外線ポート)
32…スピーカ
70…第1の制御部
72…第1の表示・操作部(撮影操作用タッチパネル)
75…第1の通信部(ネットワークアダプタ)
80…第2の制御部
81,82…第2の表示・操作部(編集操作用タッチパネル)
90…第3の制御部
91…第3の表示・操作部(出力操作用タッチパネル)
92…印刷出力部(ネットワークプリンタ)
93…音声出力部(スピーカ)
94…非接触通信部(非接触通信ポート)
80…第2の制御部
81,82…第2の表示・操作部(編集操作用タッチパネル)
83…第2の通信部(ネットワークアダプタ)
3 ... Shooting unit 4 ... Editing unit 5 ... Output unit 6 ... Network (LAN)
DESCRIPTION OF SYMBOLS 10 ... Camera 20 ... Touch panel for photography operation 30 ... Touch panel for output operation 35 ... Network printer 31 ... Non-contact communication port (infrared port)
32 ... Speaker 70 ... First control unit 72 ... First display / operation unit (touch panel for photographing operation)
75. First communication unit (network adapter)
80 ... second control unit 81, 82 ... second display / operation unit (touch panel for editing operation)
90 ... third control unit 91 ... third display / operation unit (touch panel for output operation)
92 ... Print output section (network printer)
93 ... Audio output unit (speaker)
94 ... Non-contact communication part (non-contact communication port)
80 ... second control unit 81, 82 ... second display / operation unit (touch panel for editing operation)
83 ... 2nd communication part (network adapter)

Claims (8)

被写体である利用者を含む像を撮影する撮影手段と、前記撮影手段により得られる撮影画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影画像に含まれる前記利用者の目の像を検出する目検出手段と、
前記目の像に合成されるべき図形を示す付加画像を記憶する記憶手段と、
前記目検出手段により検出される前記目の像に対して、前記記憶手段に記憶される付加画像に相当する画像を合成することにより、前記合成画像を生成する画像合成手段と
を備えることを特徴とする、自動写真作成装置。
An automatic photo creation device comprising a photographing means for photographing an image including a user who is a subject, and an output means for outputting a composite image including a photographed image obtained by the photographing means as a photograph,
Eye detection means for detecting an image of the user's eye included in the captured image;
Storage means for storing an additional image indicating a figure to be combined with the eye image;
Image synthesis means for generating the synthesized image by synthesizing an image corresponding to the additional image stored in the storage means with the eye image detected by the eye detecting means. An automatic photo creation device.
前記目検出手段は、前記利用者の目の像のうちの瞳孔の中心位置を検出し、
前記画像合成手段は、前記目検出手段により検出される前記瞳孔の中心位置に、前記付加画像上の所定位置であって瞳孔の中心位置に対応するよう予め定められた位置を合わせて、前記付加画像に相当する画像を合成することを特徴とする、請求項1に記載の自動写真作成装置。
The eye detection means detects the center position of the pupil in the image of the user's eyes,
The image synthesizing unit aligns the predetermined position on the additional image corresponding to the center position of the pupil with the center position of the pupil detected by the eye detecting unit, and adds the additional position. The automatic photo creation apparatus according to claim 1, wherein an image corresponding to the image is synthesized.
前記画像合成手段は、前記目の像のうちの黒目の像に合わせて、前記記憶手段に記憶される前記付加画像に対して拡大、縮小、または回転を行うことにより前記付加画像に相当する画像を生成し、当該付加画像に相当する画像を前記黒目の像に合成することを特徴とする、請求項1または請求項2に記載の自動写真作成装置。   The image synthesizing unit enlarges, reduces, or rotates the additional image stored in the storage unit in accordance with the black eye image of the eye image, thereby corresponding to the additional image. The automatic photo creating apparatus according to claim 1, wherein an image corresponding to the additional image is synthesized with the black eye image. 前記記憶手段は、テンプレート画像となるべき目の像を含む画像をさらに記憶し、
前記目検出手段は、前記記憶手段に記憶される目の像を含む画像に対して拡大、縮小、または回転を行うことによりテンプレート画像を複数種類生成し、前記撮影画像に含まれる像であって生成された複数種類のテンプレート画像に一致または近似する像を前記利用者の目の像として検出することを特徴とする、請求項1から請求項3までのいずれか1項に記載の自動写真作成装置。
The storage means further stores an image including an eye image to be a template image,
The eye detection unit generates a plurality of types of template images by enlarging, reducing, or rotating an image including an eye image stored in the storage unit, and is an image included in the captured image. The automatic photo creation according to any one of claims 1 to 3, wherein an image that matches or approximates a plurality of types of generated template images is detected as an image of the user's eyes. apparatus.
前記目の像に合成されるべき図形を選択するための前記利用者による操作入力を受け付ける入力手段をさらに備え、
前記記憶手段は、互いに異なる図形を示す複数の付加画像を記憶し、
前記画像合成手段は、前記入力手段により受け付けられた操作入力に応じて選択された図形を示す前記複数の付加画像のうちの1つに相当する画像を、前記目検出手段により検出される前記目の像に対して合成することにより、前記合成画像を生成することを特徴とする、請求項1から請求項4までのいずれか1項に記載の自動写真作成装置。
An input means for receiving an operation input by the user for selecting a figure to be synthesized with the eye image;
The storage means stores a plurality of additional images showing different figures from each other,
The image synthesizing unit is configured to detect, by the eye detection unit, an image corresponding to one of the plurality of additional images indicating a graphic selected according to the operation input received by the input unit. 5. The automatic photo creating apparatus according to claim 1, wherein the synthesized image is generated by synthesizing the image.
前記画像合成手段によって合成された付加画像を前記合成画像から消去するための前記利用者による操作入力を受け付ける入力手段をさらに備え、
前記画像合成手段は、前記入力手段により受け付けられた操作入力に応じて、前記付加画像が前記画像合成手段によって合成される前の状態に、前記合成画像を復元することを特徴とする、請求項1から請求項4までのいずれか1項に記載の自動写真作成装置。
An input unit for receiving an operation input by the user for erasing the additional image synthesized by the image synthesizing unit from the synthesized image;
The image synthesizing unit restores the synthesized image to a state before the additional image is synthesized by the image synthesizing unit in response to an operation input received by the input unit. The automatic photo production apparatus according to any one of claims 1 to 4.
被写体である利用者を含む像を撮影する撮影ステップと、前記撮影ステップにおいて得られる撮影画像を含む合成画像を写真として出力する出力ステップとを備える自動写真作成装置の制御方法であって、
前記撮影画像に含まれる前記利用者の目の像を検出する目検出ステップと、
前記目検出ステップにより検出される前記目の像に対して、予め記憶される前記目の像に合成されるべき図形を示す付加画像に相当する画像を合成することにより、前記合成画像を生成する画像合成ステップと
を備えることを特徴とする、自動写真作成装置の制御方法。
A method for controlling an automatic photo creation apparatus, comprising: a photographing step for photographing an image including a user who is a subject; and an output step for outputting a composite image including a photographed image obtained in the photographing step as a photograph.
An eye detection step of detecting an image of the user's eye included in the captured image;
The synthesized image is generated by synthesizing an image corresponding to an additional image indicating a figure to be synthesized with the eye image stored in advance with the eye image detected by the eye detecting step. And an image synthesizing step.
請求項7に記載の自動写真作成装置の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the control method of the automatic photo creating apparatus according to claim 7.
JP2010023392A 2010-02-04 2010-02-04 Automatic photograph producing device Pending JP2011164141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023392A JP2011164141A (en) 2010-02-04 2010-02-04 Automatic photograph producing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023392A JP2011164141A (en) 2010-02-04 2010-02-04 Automatic photograph producing device

Publications (1)

Publication Number Publication Date
JP2011164141A true JP2011164141A (en) 2011-08-25

Family

ID=44594943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023392A Pending JP2011164141A (en) 2010-02-04 2010-02-04 Automatic photograph producing device

Country Status (1)

Country Link
JP (1) JP2011164141A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173848A (en) * 2017-06-07 2017-09-28 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
CN111083383A (en) * 2019-05-17 2020-04-28 广东小天才科技有限公司 A dictation detection method and electronic device
WO2023276123A1 (en) * 2021-07-01 2023-01-05 日本電気株式会社 Learning system, inference system, learning method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318205A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing apparatus, image processing method, and photographing apparatus
JP2005157970A (en) * 2003-11-28 2005-06-16 Matsushita Electric Ind Co Ltd Eye image input device, authentication device, and image processing method
JP2005222152A (en) * 2004-02-03 2005-08-18 Omron Corp Image correction device
JP2006331039A (en) * 2005-05-25 2006-12-07 Make Softwear:Kk Photographic sticker creation device
JP2009081791A (en) * 2007-09-27 2009-04-16 Fuji Xerox Co Ltd Image processing apparatus, and image processing program
JP2009089422A (en) * 2001-09-12 2009-04-23 Seiko Epson Corp Compound printer
JP2009246638A (en) * 2008-03-31 2009-10-22 Net-Clay Co Ltd Photographing system and photographing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089422A (en) * 2001-09-12 2009-04-23 Seiko Epson Corp Compound printer
JP2004318205A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing apparatus, image processing method, and photographing apparatus
JP2005157970A (en) * 2003-11-28 2005-06-16 Matsushita Electric Ind Co Ltd Eye image input device, authentication device, and image processing method
JP2005222152A (en) * 2004-02-03 2005-08-18 Omron Corp Image correction device
JP2006331039A (en) * 2005-05-25 2006-12-07 Make Softwear:Kk Photographic sticker creation device
JP2009081791A (en) * 2007-09-27 2009-04-16 Fuji Xerox Co Ltd Image processing apparatus, and image processing program
JP2009246638A (en) * 2008-03-31 2009-10-22 Net-Clay Co Ltd Photographing system and photographing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173848A (en) * 2017-06-07 2017-09-28 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
CN111083383A (en) * 2019-05-17 2020-04-28 广东小天才科技有限公司 A dictation detection method and electronic device
WO2023276123A1 (en) * 2021-07-01 2023-01-05 日本電気株式会社 Learning system, inference system, learning method, and computer program
JPWO2023276123A1 (en) * 2021-07-01 2023-01-05
US12190419B2 (en) 2021-07-01 2025-01-07 Nec Corporation Correction of answer information on original image portion
JP7700856B2 (en) 2021-07-01 2025-07-01 日本電気株式会社 Learning system, estimation system, learning method, and computer program

Similar Documents

Publication Publication Date Title
JP4919031B2 (en) Photo sticker creation apparatus and method, and program
JP5782873B2 (en) Game shooting device, game shooting method and program
US20150206310A1 (en) Image generating apparatus and image generating method
JP5540417B2 (en) Photo sticker creation apparatus, control method therefor, and program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP2011164141A (en) Automatic photograph producing device
JP5900826B2 (en) Image editing apparatus, image editing method, and control program
JP2012169987A (en) Automatic photograph making device
JP2005192048A (en) PHOTO PRINT DEVICE, PHOTO PRINT DEVICE CONTROL METHOD, PHOTO PRINT DEVICE CONTROL PROGRAM, RECORDING MEDIUM CONTAINING PHOTO PRINT DEVICE CONTROL PROGRAM
JP6245529B2 (en) Game shooting device, game shooting method and program
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP4266154B2 (en) Automatic photo creation device and automatic photo creation method
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP7074994B2 (en) Photographing game console and image processing method
JP6978660B2 (en) Photographing game equipment, image display method, and image display program
JP6614374B2 (en) Photography game machine, control method and program
JP5251906B2 (en) Photography game device, photography game method, and photography game program
JP2014194567A (en) Server device, control method thereof and program
JP5660243B2 (en) Game shooting device, game shooting method and computer program
JP5672331B2 (en) Photography game device, photography game method, and photography game program
JP5333494B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program thereof
JP2013254213A (en) Photographic seal producing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603