[go: up one dir, main page]

JP2004062273A - Machine and method for automatically vending photograph seal, printing medium and printing medium uint - Google Patents

Machine and method for automatically vending photograph seal, printing medium and printing medium uint Download PDF

Info

Publication number
JP2004062273A
JP2004062273A JP2002216134A JP2002216134A JP2004062273A JP 2004062273 A JP2004062273 A JP 2004062273A JP 2002216134 A JP2002216134 A JP 2002216134A JP 2002216134 A JP2002216134 A JP 2002216134A JP 2004062273 A JP2004062273 A JP 2004062273A
Authority
JP
Japan
Prior art keywords
photographing
image
user
shooting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002216134A
Other languages
Japanese (ja)
Other versions
JP4288558B2 (en
Inventor
Masamichi Akima
秋間 正道
Katsuyuki Inage
稲毛 勝行
Tetsuya Miwa
三輪 哲也
Naohito Shiki
志岐 尚仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2002216134A priority Critical patent/JP4288558B2/en
Publication of JP2004062273A publication Critical patent/JP2004062273A/en
Application granted granted Critical
Publication of JP4288558B2 publication Critical patent/JP4288558B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To photograph unexpected pictures that are more suitable picture. <P>SOLUTION: A photographing start key operated when a start of photographing is instructed is displayed on a photographing monitor 16. When the displayed photographing start key is operated by a user on a control panel 17, CCD 21 performs photographing. A picture of a photographing result is displayed on the photographing monitor 16 and it is displayed to the user. When prescribed time such as four or five seconds passes after the photographing result picture has been displayed on the photographing monitor 16, for example, CCD 21 automatically performs photographing again not depending on an instruction from the user, and the photographed picture is preserved. THus, the photograph seal automatic vending machine can be provideded. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関し、特に、意外性のある、より好適な画像を撮影できるようにする写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関する。
【0002】
【従来の技術】
従来、ユーザの画像を撮影し、これを予め用意されたフレーム画像と合成してシール紙などに印刷して提供する、いわゆる「プリント倶楽部(登録商標)」などの写真シール自動販売機が知られている。
【0003】
このような写真シール自動販売機を利用して撮影するとき、一般的に、ユーザは、カメラにより取り込まれている自分自身の動画像(リアルビュー)を、ほぼ正面に設けられている画面において確認しながら、好ましいポーズや表情、或いは立ち位置などを調整する。
【0004】
そして、その調整が終わったとき、ユーザは、装置に対して撮影の開始を指示し、指示することに応じて出力されるカウントダウンに従って撮影を行う。このように、ポーズや表情を調整してから撮影することができるため、ユーザは、より見栄えのよい画像を撮影することができる。
【0005】
【発明が解決しようとする課題】
しかしながら、以上のように、ユーザにより指示されることに応じて撮影が行われる場合、撮影のタイミングに併せてユーザが身構えてしまうため、撮影されたユーザの表情やポーズが、通常には見られない不自然なものになってしまうことがあるという課題があった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、意外性のある画像を撮影できるようにするとともに、撮影のエンターテインメント性を向上させることができるようにするものである。
【0007】
【課題を解決するための手段】
本発明の写真シール自動販売機は、ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影手段と、第1の撮影手段により撮影が行われるタイミングと異なる所定のタイミングにおいて、ユーザからの指示によらずに撮影を行う第2の撮影手段とを備えることを特徴とする。
【0008】
例えば、第1の撮影手段と第2の撮影手段が同一の撮影装置により構成されるようにしてもよいし、或いは、それぞれ異なる位置に設けられている撮影装置により構成されるようにしてもよい。
【0009】
本発明の写真シール自動販売機は、撮影結果の画像を表示する第1の表示手段をさらに備えるようにすることができる。このとき、第2の撮影手段は、第1の表示手段により第1の撮影手段による撮影結果の画像が表示されているときに撮影を行う。
【0010】
撮影結果の画像から選択された編集対象画像を編集する編集手段をさらに備え、第2の撮影手段は、編集対象画像の選択が行われているときに撮影を行うようにすることができる。
【0011】
第2の撮影手段は、ユーザにより編集対象画像の編集が行われているとき撮影を行うようにすることができる。
【0012】
ユーザの音声を検出する音声検出手段をさらに備え、第2の撮影手段は、音声検出手段により所定の閾値以上の音量の音声が検出されたことに基づいて、または、所定の内容の音声が検出されたことに基づいて撮影を行うようにすることができる。
【0013】
取り込まれている画像に基づいて、ユーザの動作を検出する動作検出手段をさらに備え、第2の撮影手段は、動作検出手段により所定の動作が検出されたことに基づいて撮影を行うようにすることができる。
【0014】
動作検出手段により検出される動作とは、ユーザの様々な動作をいい、例えば、ユーザが画面を指さしている動作などとすることができる。
【0015】
第2の撮影手段により撮影が行われるとき、撮影が行われることを表す所定の画像を表示する第2の表示手段をさらに備えるようにすることができる。
【0016】
表示される所定の画像として、例えば、テキスト情報のみが表示されるようにしてもよいし、キャラクタの静止画像や、アニメーション画像(動画像)が表示されるようにしてもよい。
【0017】
本発明の写真シール自動販売機における写真撮影方法は、ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影ステップと、第1の撮影ステップの処理により撮影が行われるタイミングと異なる所定のタイミングにおいて、ユーザからの指示によらずに撮影を行う第2の撮影ステップとを含むことを特徴とする。
【0018】
本発明の写真シール自動販売機および方法においては、ユーザから撮影することが指示されることに基づいて撮影が行われ、撮影が行われるタイミングと異なる所定のタイミングにおいて、ユーザからの指示によらずに撮影が行われる。
【0019】
従って、本発明によれば、意外性のある、より自然な表情や姿をしているユーザを撮影することができる。また、ユーザからの操作によらずに突然撮影が行われるため、より面白みのある撮影を提供することができる。
【0020】
本発明の印刷媒体は、ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影ステップと、第1の撮影ステップの処理により撮影が行われるタイミングと異なる所定のタイミングにおいて、ユーザからの指示によらずに撮影を行う第2の撮影ステップとを含む写真シール自動販売機における写真撮影方法により印刷されることを特徴とする。
【0021】
本発明の印刷媒体ユニットは、ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影手段と、第1の撮影手段により撮影が行われるタイミングと異なる所定のタイミングにおいて、ユーザからの指示によらずに撮影を行う第2の撮影手段とを備える写真シール自動販売機において使用される印刷媒体ユニットであって、印刷媒体ユニットを識別する識別情報を記憶する識別情報記憶手段を備え、識別情報が写真シール自動販売機により認証されたとき使用可能とされることを特徴とする。
【0022】
識別情報記憶手段は、例えば、ICタグ(制御タグ)、ICカード等のメモリにより構成され、識別情報としての固有のIDを記憶する。
【0023】
このように、識別情報が認証されたときにのみ印刷媒体ユニットが使用可能とされることにより、本発明の写真シール自動販売機に対して生産されたユニットのみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。また、印刷媒体ユニットにバーコードなどが付されている場合、そのバーコードにより、純正品であるか否かを判断させるようにしてもよい。
【0024】
【発明の実施の形態】
図1は、本発明を適用した写真シール自動販売機としての画像印刷装置1の構成例を示す斜視図である。
【0025】
画像印刷装置1の垂直な面1Aには、保持部材13を介して撮影装置12が面1Aから突出した状態で設けられている。撮影装置12は、面1Aに垂直方向に配設されているレール14に従って、所定の範囲内で上下方向に移動可能とされている。また、撮影装置12は、保持部材13との接合部を中心として、垂直平面内で上下方向に首振り自在に保持部材13に取り付けられている。
【0026】
従って、画像印刷装置1を利用するユーザは、撮影装置12をレール14に従って好みの高さに調節し、また、撮影装置12の正面(CCD(Charge Coupled Device)21および画像表示部22が設けられている面)を好みの角度に調節し、撮影を行うことができる。
【0027】
撮影装置12には、CCD21が設けられ、CCD21の下には画像表示部22が設けられている。CCD21により被写体の画像が取り込まれ、取り込まれている画像(動画像)がリアルタイムで画像表示部22に表示される。例えば、ユーザにより指示されたタイミングにおいて、CCD21による撮影が行われ、ユーザ(被写体)の画像が静止画像として画像印刷装置1に保存される。画像表示部22がCCD21の近傍に設けられているため、ユーザは、CCD21に視線を向けた状態で、画像表示部22に表示される自分自身の画像を確認しながら、撮影を行うことができる。
【0028】
また、画像印刷装置1においては、ユーザにより撮影を開始することが指示されていない所定のタイミングで、自動的に撮影が行われる。従って、ユーザが意図しないタイミングで撮影が行われるため、意外性のある画像が撮影されることになる。画像印刷装置1により行われる撮影処理については、フローチャートを参照して後に詳述する。
【0029】
撮影装置12(レール14)の左側にはフラッシュ照射部15−1が設けられており、また、右側にはフラッシュ照射部15−2が設けられている。フラッシュ照射部15−1,15−2は、撮影装置12(CCD21)により撮影されるタイミングで、画像印刷装置1の内部に設けられている照明装置から出射されるフラッシュ光を透過し、被写体を照射する。
【0030】
フラッシュ照射部15−2の下には、LCD(Liquid Crystal Display)やCRT(Cathode−Ray Tude)などにより構成される撮影用モニタ16が設けられている。撮影用モニタ16には、撮影処理の進行段階に応じて、撮影方法などを案内する各種のメッセージなどが表示される。また、撮影用モニタ16には、撮影された画像が表示されるため、ユーザは、表示される撮影画像の中から、編集(落書き)対象の画像を選択することができる。後述するように、ユーザは、撮影を終了した後、画像印刷装置1の裏側に移動し、撮影された画像に対して好みの文字や図形などを入力し、編集を施すことができる。
【0031】
撮影用モニタ16の下には、面1Aから突出した状態で操作部11が設けられている。操作部11の上面11Aは若干斜め上方を向いた状態で設けられており、そこに操作パネル17が設けられている。ユーザは、操作パネル17に設けられている各種のボタンにより、撮影処理を進行する。
【0032】
操作パネル17には、例えば、撮影用モニタ16に表示される各種の選択に対して、決定するときに操作される「○ボタン」、決定したものをキャンセルするときに操作される「×ボタン」、撮影用モニタ16に表示されるカーソルなどを上下左右に移動するときに操作される「矢印ボタン(上下左右ボタン)」などが配置される。また、そのほかにも、撮影を開始するとき操作される「撮影開始ボタン」なども適宜配置される。操作部11には、撮影用モニタ16に直接押し当てることで各種の選択を行うための入力ペンなども適宜用意される。
【0033】
面1Aの左下には、硬貨投入口18が設けられている。ユーザは、画像印刷装置1を利用して撮影するとき、所定の代金を硬貨投入口18に投入する。
【0034】
撮影用モニタ16の近傍には、マイクロホン19が設けられている。マイクロホン19により、撮影用モニタ16に表示される説明に従って操作を行っているユーザの音声が集音される。後述するように、例えば、マイクロホン19により集音された音声に基づいて、ユーザが所定の閾値以上の音量の声を発していることが検出されたときなどの所定のタイミングにおいて、自動的に(ユーザからの操作によらずに)撮影が行われる。
【0035】
画像印刷装置1の左側面1Bの下方には、シール取り出し口31が設けられている。撮影され、編集等が施された画像が所定の大きさでシール紙に印刷され、得られたシール紙がシール取り出し口31から排出される。
【0036】
図2は、画像印刷装置1の面1Aの反対側に相当する、面1C側の構成例を示す斜視図である。なお、以下において、適宜、面1Aが設けられている面を画像印刷装置1の正面として説明し、面1Aの反対側に相当する、面1Cが設けられて面を画像印刷装置1の背面として説明する。
【0037】
画像印刷装置1の面1Cには、編集用モニタ41−1および41−2が水平方向に並置されている。編集用モニタ41−1の下には収納部42−1が設けられ、そこに、編集用モニタ41−1に直接押し当てることで画像の編集などを行うための入力ペン43−1が収納される。同様に、編集用モニタ41−2の下には収納部42−2が設けられ、そこに、編集用モニタ41−2に直接押し当てることで画像の編集などを行うための入力ペン43−2が収納される。
【0038】
撮影装置12により撮影され、編集対象の画像として選択された画像は、ユーザが撮影処理を終了した後、編集用モニタ41−1および41−2にそれぞれ表示される。編集用モニタ41−1および41−2には、タッチパネルが積層されており、ユーザは、表示されている画像に対し、任意の文字や図形などを、入力ペン43−1および43−2を利用して書き込む(入力する)ことができる。
【0039】
編集用モニタ41−1および41−2には、編集対象の画像とともに、様々な編集ツールを選択するためのボタンが表示される。そして、そのボタンが操作され、画像の編集が行われたとき、編集用モニタ41−1および41−2には、入力に応じて生成された編集済みの画像が表示される。
【0040】
入力ペン43−1および43−2は、編集用モニタ41−1および41−2に積層されるタッチパネルの位置検出方式(例えば、抵抗膜式、超音波式など)に応じて構成される。
【0041】
編集用モニタ41−1および41−2の近傍には、CCD44−1および44−2がそれぞれ設けられている。後述するように、CCD44−1および44−2により、画像の編集を行っているユーザの姿が所定のタイミングで撮影される。
【0042】
図3は、画像印刷装置1の配置の例を示す図である。
【0043】
画像印刷装置1の正面(面1A)に対向する位置には、所定距離だけ離間して背景パネル61が設置され、ユーザは、画像印刷装置1と背景パネル61の間の撮影空間62において撮影を行う。なお、撮影空間62には、画像印刷装置1の上面と背景パネル61により支持される天井部材63、および、撮影空間62の内部が外側から見えないように、カーテン64−1と側面パネル65−1が設けられている。
【0044】
撮影を終了した後に移動し、画像の編集を行う空間として、面1Cに臨む位置に編集空間73が設けられている。編集空間73には、その内部が外部から覗かれるのを防止すべく、カーテンフレーム71にカーテン72−1が取り付けられている。カーテン72−1は、面1Bと略同一平面上に設けられ、カーテン72−2は、面1Cに対向して、所定の距離だけ離間して設けられる。なお、この例においては、カーテンフレーム71は、天井部材43とほぼ同一平面上に設けられている。
【0045】
図4は、画像印刷装置1の配置の例を、その上方から示す図である。
【0046】
図4に示されるように、画像印刷装置1の右側面1D側にも、面1B側と同様に、撮影空間62の内部が外側から覗かれることを防止すべく、カーテン64−2と側面パネル65−2が設けられている。撮影空間62の内部(背景パネル61、天井部材63、側面パネル65−1,65−2等の内側)は、撮影装置12により撮影された画像から、ユーザの画像のみをいわゆるクロマキ処理により抽出できるように、例えば、白色や青色などの単一色の面とされる。
【0047】
図4を参照し、撮影を開始してからシール紙を受け取るまでのユーザの移動について説明する。
【0048】
ユーザは、画像印刷装置1を利用するとき、白抜き矢印A1で示されるように撮影空間62に入場し、撮影処理を行う。従って、撮影空間62が使用されているとき、画像印刷装置1を利用することを所望するユーザは、例えば、側面パネル61の前方の順番待ち空間74において、撮影空間62が空くのを待機することになる。
【0049】
所定の数の画像を編集対象の画像として選択し、撮影を終えたとき、ユーザは、例えば、白抜き矢印A2で示されるようにして撮影空間62から退場し、白抜き矢印A3で示されるようにして画像印刷装置1の背面側に設けられる編集空間73に移動する。
【0050】
このとき、順番待ち空間74において順番待ちをしていたユーザ(撮影空間62が空くのを待機していたユーザ)は、撮影空間62を先に使用していたユーザの組が編集空間73に移動することに応じて、撮影空間62に入場する。
【0051】
上述したように、編集空間73から確認できる編集用モニタ41−1および41−2には、撮影空間62において撮影し、選択した画像が表示されるため、ユーザは、それに対して編集を行う。ユーザは、編集を終えたとき、次に、画像印刷装置1の面1Bに臨む場所である印刷待ち空間75に白抜き矢印A4で示されるようにして移動し、編集した画像がシール紙にプリントされ、排出されるまで待機する。
【0052】
そして、シール取り出し口31にシール紙が排出されたとき、ユーザは、それを受け取り、画像印刷装置1の利用を終える。これらの移動の案内は、撮影用モニタ16、編集用モニタ41−1および41−2、または図示せぬスピーカなどにより行われる。
【0053】
このように、撮影を行う空間、編集を行う空間、印刷が終了するのを待機する空間を、画像印刷装置1の異なる面の前方にそれぞれ設けることにより、撮影処理、編集処理、印刷処理を併行して実行させることができ、これらの処理を1つの空間で実行させる場合に較べて、画像印刷装置1を利用する顧客の回転率を向上させることができる。また、撮影処理に要する時間、編集処理に要する時間等をそれぞれのユーザの組に対して長く確保することができる。
【0054】
図5は、画像印刷装置1の内部の構成例を示すブロック図である。上述したものと同様の構成について、その詳細な説明は適宜省略する。
【0055】
制御装置91は、パーソナルコンピュータなどにより構成され、画像印刷装置1の全体の動作を制御する。具体的には、制御装置91に設けられているCPU(Central Processing Unit)131により、ROM(Read Only Memory)132やハードディスクなどにより構成される記憶部136(いずれも図6)に記憶されているプログラムに基づく処理が実行される。
【0056】
硬貨処理部92は、ユーザにより所定の代金が硬貨投入口18に投入されたとき、それを検出し、制御装置91に通知する。照明制御部93は、撮影装置12により被写体が撮影されるタイミングに併せて、制御装置91からの指示に基づいてフラッシュ光を出射する。出射されたフラッシュ光は、図1のフラッシュ照射部15−1および15−2を介して被写体(ユーザ)を照射する。
【0057】
画像印刷装置1の面1Cに設けられている編集用モニタ41−1にはタッチパネル94−1が、編集用モニタ41−2にはタッチパネル94−2がそれぞれ積層されている。タッチパネル94−1および94−2は、入力ペン43−1および43−2により入力されたユーザからの指示を制御装置91に出力する。
【0058】
プリンタユニット95は、プリンタ部111と制御タグリーダライタ112により構成され、プリンタユニット95に装着されるシール紙ユニット96は、シール紙121と、個々のシール紙ユニット96を識別する識別情報等を管理する制御タグ122により構成される。
【0059】
プリンタ部111は、編集処理等が施された画像データが制御装置91から供給されたとき、供給された画像データにより表される画像を、ユーザにより選択された画像のサイズおよび分割数に従って、シール紙121に印刷し、シール紙121をシール取り出し口31に排出する。
【0060】
制御タグリーダライタ112は、制御タグ122に記憶されている識別情報を接触または非接触により読み出し、制御装置91に出力する。制御装置91は、制御タグリーダライタ112から供給された識別情報に基づいて、装着されているシール紙ユニット96が、画像印刷装置1において利用可能なユニットであるか否かを判定し、利用可能なユニットであると判定したときにのみ、プリンタ部111を動作可能にする。すなわち、制御装置91により、画像印刷装置1において利用可能とされるシール紙ユニットの識別情報が管理されている。
【0061】
これにより、画像印刷装置1に対応していない(純正のものでない)シール紙が利用されるのを抑制することができる。また、制御タグ122により、シール紙121の残量等も管理される。なお、シール紙ユニット96が純正のものであるか否かを、シール紙ユニット96にプリントされているバーコードなどにより確認させるようにしてもよい。
【0062】
図6は、図5の制御装置91の詳細な構成例を示すブロック図である。
【0063】
CPU131は、ROM132に記憶されているプログラム、または、記憶部136からRAM(Random Access Memory)133にロードされたプログラムに従って各種の処理を実行する。RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0064】
CPU131、ROM132、およびRAM133は、バス134を介して相互に接続されている。バス134にはまた、入出力インタフェース135も接続されている。
【0065】
入出力インタフェース135には、図5に示される、撮影装置12、撮影用モニタ16、操作パネル17、マイクロホン19、編集用モニタ41−1および41−2(編集用モニタ41)、CCD44−1および44−2(CCD44)、硬貨処理部92、照明制御部93、タッチパネル94−1および94−2(タッチパネル94)、およびプリンタユニット95が接続されている。
【0066】
記憶部136は、CPU131により実行されるプログラムの他、撮影装置12により取り込まれている被写体の画像と合成する背景画像のデータや、撮影して得られた画像のデータなどを記憶する。後述するように、撮影処理においては、所定の回数だけ撮影を行うことができるようになされており、記憶部136には、撮影回数に対応する数の画像のデータが記憶される。
【0067】
入出力インタフェース135にはまた、必要に応じてドライブ137が接続され、磁気ディスク151、光ディスク152、光磁気ディスク153、或いは半導体メモリ154などが適宜装着され、それらから読み出されたコンピュータプログラムや背景画像データが必要に応じて記憶部136に保存される。
【0068】
次に、画像印刷装置1の処理について、フローチャートを参照して説明する。
【0069】
始めに、図7のフローチャートを参照して、画像印刷装置1を利用する顧客(ユーザ)に応対する、画像印刷装置1の全体の処理について説明する。
【0070】
ステップS1において、制御装置91のCPU131は、硬貨処理部92からの出力に基づいて、代金が投入されたか否か、すなわち、撮影を開始するユーザがいるか否かを判定し、代金が投入されたと判定するまで待機する。
【0071】
CPU131は、ステップS1において、代金が投入されたと判定した場合、ステップS2に進み、撮影空間62における撮影処理を実行する。すなわち、予め設定されている回数だけ撮影が繰り返し行われ、得られた画像の中から、編集する画像が選択されたとき、撮影処理が終了される。ステップS2において実行される撮影処理については、図8および図11のフローチャートを参照して後に詳述する。
【0072】
ステップS3において、CPU131は、ユーザからの入力に応じて、撮影した画像を編集する編集処理を実行する。ステップS3において実行される編集処理については、図14のフローチャートを参照して後に詳述する。
【0073】
CPU131は、ステップS4において、編集処理により編集され、生成された編集画像の画像データをプリンタユニット95のプリンタ部111に転送し、印刷させる。そして、印刷処理が終了されたとき、ステップS1に戻り、以上の処理が繰り返し実行される。
【0074】
なお、図7に示される処理は、記載された順序に従って時系列的に行われるだけでなく、そのときの画像印刷装置1の利用状況に応じて並列的にも行われる。例えば、第1のユーザが撮影空間62において撮影を終了させ、編集空間73に移動した直後に、第2のユーザが撮影空間62において撮影を開始した場合、図7のステップS2の撮影処理(第2のユーザの処理)とステップS3の編集処理(第1のユーザの処理)が並列して行われることになる。同様に、撮影処理、編集処理、および、ステップS4における印刷処理のそれぞれが状況に応じて並列して行われる。
【0075】
次に、図8のフローチャートを参照して、図7のステップS2において実行される撮影処理の詳細について説明する。
【0076】
ステップS11において、CPU131は、ユーザからの入力に基づいて、例えば、撮影装置12の高さ、撮影アングル、撮影モードなどの撮影条件を設定する。具体的には、CPU131は、各種の撮影環境を設定する画面を撮影用モニタ16に順次表示し、表示される画面に対するユーザの入力に従って撮影装置12などを制御し、撮影条件を設定する。
【0077】
ステップS12において、CPU131は、撮影用モニタ16に撮影画面を表示させる。この撮影画面には、例えば、CCD21により取り込まれているユーザの動画像(リアルビュー)、および、撮影の開始を指示するとき操作される撮影開始ボタンなどが表示される。
【0078】
ステップS13において、CPU131は、撮影画面に表示されている撮影開始ボタンが操作されたか否かに基づいて、撮影を開始することがユーザにより指示されたか否かを判定し、撮影を開始することが指示されていないと判定した場合、ステップS12に戻り、撮影画面の表示を続ける。
【0079】
一方、CPU131は、ステップS13において、撮影を開始することがユーザから指示されたと判定した場合、ステップS14に進み、撮影装置12を制御し、設定されている撮影条件に従って撮影を行う。例えば、撮影までのカウントダウンが撮影用モニタ16に表示され、撮影までの時間が「0」になったとき(カウントダウンが「0」になったとき)、照明制御部93を制御し、フラッシュを被写体に照射させるとともに、CCD21により撮影を行う(シャッターを閉じる)。撮影により得られた画像のデータは、RAM133または記憶部136に保存される。
【0080】
CPU131は、ステップS15において、直前の撮影により得られた撮影結果の画像を撮影用モニタ16に表示し、ユーザに確認させる。
【0081】
図9は、ステップS15において撮影用モニタ16に表示される画面の例を示す図であり、図9に示されるように、画面のほぼ中央に、CCD21により撮影された画像P1が表示される。ユーザは、撮影された画像P1を、この画面において確認する。
【0082】
CPU131は、ステップS16において、撮影結果の画像を表示してから(図9の画面を表示してから)所定の時間が経過したか否かを判定し、所定の時間が経過したと判定するまで待機する。この所定の時間は、例えば、4,5秒とされ、CPU131は、ステップS16において、撮影結果の画像を表示してから所定の時間が経過したと判定した場合、ステップS17に進み、ユーザからの指示によらずに、不意打ち的に撮影を行う(以下、適宜、ユーザからの指示によらずに行われる撮影を不意打ち撮影と称する)。
【0083】
すなわち、ステップS17において行われる不意打ち撮影により、撮影結果の画像を確認しているユーザの姿が突然撮影されることになり、ステップS14において行われる撮影の場合とは異なり、ユーザが撮影に備えて表情やポーズを調整する時間がないため、通常通りの、自然なユーザの表情などを撮影することができる。また、意外性のある画像を撮影することができるため、より面白みのある撮影を提供することができる。
【0084】
以上の不意打ち撮影により得られた画像のデータも、ステップS14において行われた撮影(ユーザからの指示に基づいて行われた撮影)により得られた画像のデータと同様にRAM133などに保存される。
【0085】
ステップS18において、CPU131は、撮影を終了するか否かを判定し、撮影を終了すると判定するまで、ステップS12に戻り、以降の処理を繰り返し実行する。例えば、画像印刷装置1には撮影可能回数が所定の数だけ予め設定されており、残りの撮影可能回数が「0」になったとき撮影が終了される。また、予め設定されている制限時間の残り時間がなくなったとき、強制的に撮影が終了される。
【0086】
CPU131は、ステップS18において、撮影を終了すると判定した場合、ステップS19に進み、撮影用モニタ16の表示を制御し、撮影結果の画像を一覧表示し、編集処理において編集を施す画像(編集対象画像)をユーザに選択させる。
【0087】
図10は、ステップS19において撮影用モニタ16に表示される画面の例を示す図である。
【0088】
図10に示される表示例においては、画面の上方に「この中から4つだけ画像を選んでね」のメッセージが表示されており、その下に、ステップS14で撮影された画像と、ステップS17において行われた不意打ち撮影により得られた画像(画像P11乃至P18)が一覧表示されている。
【0089】
また、画像P11乃至P18の下には、「選ばれた画像がここに表示されるよ」のメッセージが表示され、そのメッセージの下に、編集対象の画像として選択された4種類までの画像が表示される。例えば、ユーザは、画面の下方に表示されている案内に従って、操作パネル17の操作によりカーソル161を移動させ、決定ボタン(丸ボタン)を押下することで編集対象の画像を選択する。
【0090】
図10の例においては、一覧表示されている画像P11乃至P18の中から、画像P11が編集対象の画像として選択されており、ユーザは、続いて3種類の画像を選択することができる。なお、画面の右上方には、編集対象画像の選択に対して設定されている残りの制限時間が表示されており、図10の例においては「73秒」とされている。
【0091】
図8の説明に戻り、CPU131は、ステップS20において、編集する画像の選択を受け付け、ステップS21に進み、画像の選択が終了されたか否かを判定する。CPU131は、画像の選択が終了していないと判定した場合、ステップS19に戻り、図10に示されるような選択画面を表示し続ける。
【0092】
一方、CPU131は、ステップS21において、例えば、4種類の画像が編集対象画像として選択されたため、画像の選択が終了されたと判定した場合、撮影処理を終了させる。その後、図7のステップS3以降の処理が実行される。
【0093】
撮影処理が終了されたとき、撮影用モニタ16には、例えば、「機械の裏側に移動してね」などのメッセージが表示され、ユーザに対して、編集空間73に移動することが案内される。この案内に従って、撮影処理を終えたユーザは、撮影空間62から編集空間73に移動する。
【0094】
以上においては、ユーザから指示されたときに通常の撮影が行われ、その撮影結果の画像が表示されている所定のタイミングで不意打ち撮影が行われるとしたが、不意打ち撮影が行われるタイミングは、どのようなタイミングであってもよい。
【0095】
次に、図11のフローチャートを参照して、ユーザが編集対象の画像を選択しているときに不意打ち撮影が行われる場合の撮影処理(図7のステップS2において行われる撮影処理)の詳細について説明する。
【0096】
ステップS31乃至S34の処理は、図8のステップS11乃至S14の処理と同様の処理である。すなわち、ステップS31において、ユーザからの操作に基づいて撮影条件が設定され、ステップS32で表示される撮影画面において、撮影を開始することが指示されたとき、ステップS34に進み、撮影が行われる。
【0097】
ステップS35において、CPU131は、撮影を終了するか否かを判定し、例えば、撮影可能回数がまだ残っているため、撮影を終了しないと判定した場合、ステップS32に戻り、それ以降の処理を繰り返し実行する。
【0098】
一方、CPU131は、ステップS35において、撮影を終了すると判定した場合、ステップS36に進み、撮影結果の画像を一覧表示し、複数の画像の中から編集対象の画像をユーザに選択させる。
【0099】
図12は、ステップS36において撮影用モニタ16に表示される選択画面の例を示す図であり、例えば、図10に示される画面と基本的に同様の画面が表示される。上述したものと同様の部分については、その詳細な説明は省略する。
【0100】
この例においては、ユーザからの指示に応じて5回撮影が行われ、その撮影結果の画像としての画像P21乃至P25が一覧表示されている。また、画像P23の右隣の欄(画像の表示部)、画像P26の左右の欄には、いずれの画像も表示されていない。
【0101】
ユーザは、カーソル171を移動させ、表示されている画像の中から編集対象の4種類の画像を選択する。
【0102】
ステップS37において、CPU131は、ユーザからの操作に基づいて、編集対象の画像の選択を受け付け、ステップS38に進み、画像の選択が終了されたか否かを判定する。
【0103】
CPU131は、ステップS38において、画像の選択が終了されていない(図12の選択画面において4種類の画像が選択されていない)と判定した場合、ステップS39に進み、撮影結果の画像が一覧表示されてから所定の時間が経過したか否か、すなわち、図12に示される選択画面が表示されてから所定の時間が経過したか否かを判定する。
【0104】
ステップS38において、CPU131は、撮影結果の画像が一覧表示されてから所定の時間が経過していないと判定した場合、ステップS36に戻り、それ以降の処理を繰り返し実行し、一方、撮影結果の画像が一覧表示されてから所定の時間が経過したと判定した場合、ステップS40に進む。
【0105】
例えば、撮影結果の画像が一覧表示されてから4,5秒経過したとき、ステップS40において、不意打ち撮影が行われる。これにより、編集対象の画像を選択しているユーザの姿が撮影されることになる。
【0106】
CPU131は、ステップS41において、不意打ち撮影により得られた画像を、撮影結果の画像として編集対象画像の選択画面に追加して表示する。従って、図12に示される選択画面は、不意打ち撮影が行われることにより、図13に示される画面に更新される。
【0107】
図13に示される選択画面の例においては、図12に示される画面と比較して、画像P31が撮影結果の画像の一覧に追加され、画像P23の右隣(画像が表示されていなかった領域)に表示されている。また、追加された画像P31の周りは、例えば、所定の色の枠が表示されたり、点滅して表示されているため、ユーザは、不意打ち撮影により選択できる画像が追加されたことを直感的に確認することができる。
【0108】
なお、不意打ち撮影が行われ、画像が追加されたときの残りの制限時間は「69秒」とされ、図12に示される画面が表示されてから4秒後の画面であることが表されている。
【0109】
このように、ユーザが意図しないタイミングで撮影が行われ、編集対象の画像として選択できる画像が突然追加されるため、より驚きのある、換言すれば、面白みのある撮影を提供することができる。
【0110】
その後、不意打ち撮影が再度行われた場合、得られた画像は、例えば、画像P21の下の欄に追加して表示される。
【0111】
不意打ち撮影による撮影結果の画像の中からも編集対象の画像が選択され、ステップS38において、例えば、4種類の編集対象の画像が選択されたと判定された場合、撮影処理が終了される。
【0112】
以上においては、撮影結果の画像を確認する画面が表示されているとき(図9の画面が表示されているとき)、または、編集対象画像を選択する画面が表示されているとき(図12に示される画面が表示されているとき)のいずれか一方のタイミングで不意打ち撮影が行われるとしたが、その両方のタイミングで不意打ち撮影が行われるようにしてもよい。
【0113】
また、撮影空間62において撮影が行われている期間内であれば、いずれのタイミングで不意打ち撮影が行われるようにしてもよく、例えば、代金が投入された直後に突然撮影が行われるようにしてもよいし、編集空間73への移動が案内されてから撮影が行われるようにしてもよい。
【0114】
さらに、後に詳述するように、編集処理においても不意打ち撮影が行われるようにすることができる。
【0115】
以上においては、不意打ち撮影が行われるとき、例えば、撮影結果の画像のみが画面に表示されているとしたが、ユーザの表情に影響を与えることが予想される情報であれば、動画像や静止画像、或いは、音声情報などの様々な情報が、撮影結果の画像とともに、または撮影結果の画像とは別に出力されるようにしてもよい。
【0116】
例えば、撮影結果の画像に重畳して、幽霊の画像(アニメーション)が突然表示されることにより、驚いているユーザの表情を撮影できることが期待でき、撮影結果の画像が突然回転し始めることで、困惑しているユーザの表情を撮影できることが期待できる。
【0117】
また、撮影結果の画像とは別に、例えば、子犬の動画像が表示され、それを見ているユーザの表情を撮影することにより(動画像が表示されている期間の所定のタイミングにおいて撮影を行うことにより)、目を細めているユーザの表情を撮影できることが期待できる。すなわち、これらのユーザの表情に変化を与えることが予想される情報が出力されることにより、カメラに身構えていない、普段通りのユーザの姿や表情を撮影することができる。
【0118】
次に、図14のフローチャートを参照して、図7のステップS3において実行される編集処理の詳細について説明する。
【0119】
ステップS51において、CPU131は、編集対象の画像として選択された画像データを読み出し、読み出したデータに基づいて編集画面を編集用モニタ41−1および41−2に表示させる。
【0120】
図15は、編集画面の表示例を示す図である。
【0121】
上述したように、編集用モニタ41−1および41−2は、画像印刷装置1の面1Cに水平方向に並置して設けられており、図15に示されるような編集画面がそれぞれのモニタに表示される。
【0122】
例えば、編集処理が開始されたとき、編集用モニタ41−1の中央に吹き出し191が表示され、そこに「らくがき中に撮影されるかも?2枚くらい」のメッセージが表示される。すなわち、後述するように、編集処理が開始されたとき、編集処理と並行して不意打ち撮影処理が行われており、不意打ち撮影が行われる可能性のあることがユーザに案内される。
【0123】
また、編集用モニタ41−1に表示される編集画面には、編集対象の画像が拡大して表示される編集対象画像表示部201が表示され、ユーザは、編集対象画像表示部201に表示させる画像を、画像選択部202に表示されている画像の中から入力ペン43−1によりカーソル202Cを移動させて選択する。画像選択部202には、撮影処理において、編集対象の画像として選択された4種類の画像が一覧表示されている。
【0124】
編集対象画像表示部201の近傍には、編集ツールを選択するとき操作される各種のボタンが表示される。例えば、編集対象画像に線や文字などを入力するための「ペンツール」を選択するとき操作されるペンメニュー203、編集対象画像に所定のスタンプ画像を配置する「スタンプツール」を選択するとき操作されるスタンプメニュー204、「ペンツール」により入力される文字などの色を選択するとき操作される色選択メニュー205が表示される。
【0125】
また、1度入力した落書き等を消すための「消しゴムツール」を選択するとき操作される消しゴムメニュー206、被写体の背景部分に好みのテクスチャを配置する「背景ブラシツール」と、その範囲を選択するとき操作される範囲調整メニュー207、および、「ペンツール」の太さを選択するとき操作される太さメニュー208が表示される。
【0126】
また、編集画面には、編集対象画像表示部201に表示されている画像の表示方向(縦方向、横方向)を切り換えるとき操作される切り換えボタン209、直前に入力した編集を取り消すとき操作されるやり直しボタン210、入力した編集を全て取り消すとき操作されるやり直しボタン211が表示される。さらに、編集用モニタ41−1の右下には、編集処理を終了し、印刷を開始するとき操作される終了ボタン212が表示される。
【0127】
なお、編集画面の右上には、編集処理に対して設定されている制限時間が表示されており、図15に示される例においては「90秒」とされている。
【0128】
図14の説明に戻り、編集画面において選択されたツールに基づく編集がタッチパネル94−1,94−2を介して入力されたとき、CPU131は、ステップS52において、ユーザからの入力に応じて、編集対象として選択されている画像を編集する。例えば、所定のペンツールがペンメニュー203から選択され、文字が編集対象画像に入力されたとき、CPU131は、入力された文字に対応する画像を編集対象画像に重畳して表示させる。
【0129】
ステップS53において、CPU131は、編集処理と並行して実行されている不意打ち撮影処理により、不意打ち撮影が行われたか否かを判定し、不意打ち撮影が実行されたと判定した場合、ステップS54に進み、不意打ち撮影による撮影結果の画像を画像選択部202に追加する。ステップS53において不意打ち撮影が行われていないと判定された場合、ステップS54の処理はスキップされる。
【0130】
不意打ち撮影が行われるとき(後述する図18のステップS76)、例えば、編集画面には、図16に示されるように、カメラマンのキャラクタCが画面の端から現れる画像が表示される。そして、画面のほぼ中央で、画像を編集しているユーザを撮影するカメラマンの画像が表示されるタイミングに合わせて、CCD44−1および44−2により撮影(不意打ち撮影)が行われる。
【0131】
不意打ち撮影が行われた直後には、図17に示されるように、撮影結果の画像が画像選択部202に追加して表示される。
【0132】
図17の表示例においては、画像P51が不意打ち撮影により追加され、画像P51の近傍に表示されている吹き出し221に「追加されたよ」のメッセージが表示されている。ユーザは、画像選択部202に追加された画像P51を選択することで編集対象画像表示部201に拡大表示させ、画像P51に対して編集(落書き)を施すことができる。
【0133】
なお、図16に示される画面は、編集処理の残り時間が「51秒」のタイミングで表示された画面とされ、図17に示される画面は、図16に示される画面が表示された「1秒後」の、編集処理の残り時間が「50秒」のタイミングで表示された画面とされている。
【0134】
このように、ユーザが画像を編集しているときに突然撮影が行われるため、撮影を楽しんでいるユーザの自然な表情を撮影することができる。
【0135】
CPU131は、ステップS55において、編集処理を終了するか否かを判定し、例えば、終了ボタン212が操作されていないため、編集処理を終了しないと判定した場合、ステップS52に戻り、以上の処理を繰り返し実行する。
【0136】
一方、終了ボタン212が操作された場合、または、予め設定されている制限時間が終了した場合、CPU131は、ステップS55において、編集処理を終了すると判定し、ステップS56に進み、ステップS51乃至S55の処理が行われた期間において、不意打ち撮影が行われたか否かを判定する。
【0137】
CPU131は、ステップS56において、不意打ち撮影があったと判定した場合、ステップS57に進み、落書きが施された画像を、シール紙121に印刷する画像として選択する。すなわち、シール紙121に印刷可能な画像の数が4種類までであり、撮影が行われた後に4種類の画像が既に選択されているにも関わらず、編集処理において不意打ち撮影が行われた場合、印刷可能とされている4種類以上の画像がRAM133に保存されている状態となるため、例えば、印刷する画像として、4種類の編集済みの画像が選択されるように、画像の抽出(絞り込み)が行われる。
【0138】
なお、4種類以上の画像に対して編集が施されている場合、例えば、4種類の画像がランダムに選択される。当然、シール紙121に印刷する4種類の画像をユーザに選択させるようにしてもよい。
【0139】
一方、ステップS56において、ステップS51乃至S55の処理の期間に不意打ち撮影が行われていないと判定された場合、ステップS57の処理はスキップされる。
【0140】
ステップS58において、CPU131は、シール紙121に印刷される画像の配置と大きさを選択する分割数(印刷パターン)の選択画面を編集用モニタ41−1および41−2に表示させ、ユーザに好みの分割数を選択させる。すなわち、画像印刷装置1には、複数の分割数が予め用意されており、ユーザが好みの印刷パターンを選択できるようになされている。ユーザにより分割数が選択されたとき、編集処理が終了される。
【0141】
編集処理が終了されたとき、CPU131は、編集用モニタ41−1および41−2に、印刷待ち空間75に移動することを案内するメッセージを表示させる。ユーザは、表示されるメッセージに従って印刷待ち空間75に移動し、シール取り出し口31からシール紙が排出されてくるのを待機する。
【0142】
その後、処理は図7のステップS4に進み、編集が施された合成画像がシール紙121に印刷される。すなわち、CPU131により、編集が施された合成画像のデータがプリンタ部111に出力され、そのデータに基づいて、シール紙121に画像が印刷される。合成画像が印刷されたシール紙121は、シール取り出し口31から排出される。
【0143】
次に、図18のフローチャートを参照して、図14を参照して説明した編集処理と並行して実行される、画像印刷装置1の不意打ち撮影処理について説明する。
【0144】
ステップS71において、CPU131は、不意打ち撮影を行うタイミングと、編集処理の最中に行われる不意打ち撮影の回数を取得する。例えば、代金が投入されたとき、或いは、編集処理が開始されたときなどの所定のタイミングにおいて、編集処理の最中に行われる不意打ち撮影のタイミングと回数が決定されており、それがRAM133に保存されている。
【0145】
編集処理における不意打ち撮影は、ユーザの編集操作に影響を与えないように、例えば、編集処理に対して設定されている制限時間のうちの前半に行われる。具体的には、上述したように編集処理の制限時間として「90秒」が設定されている場合、編集処理が開始されてから「60秒」までの間に不意打ち撮影が行われる。
【0146】
不意打ち撮影のタイミングは、例えば、0乃至1の値がランダムに選択され、選択された値と、不意打ち撮影が行われる上限の時間としての「60(秒)」を乗算して得られたタイミングとされる。例えば、「0.5」の値がランダムに選択された場合、その値と「60秒」の乗算した結果により、編集処理が開始されてから「30秒」経過したときが、不意打ち撮影のタイミングとして決定され、保存される。
【0147】
CPU131は、ステップS72において、撮影カウント値を「0」に設定し、ステップS73に進み、編集処理が開始されてからの時間を取得する。この撮影カウント値は、不意打ち撮影が行われた回数を表している。
【0148】
ステップS74において、CPU131は、ステップS71で取得した不意打ち撮影のタイミングと、ステップS73で取得した編集処理が開始されてからの時間に基づいて、不意打ち撮影を行うタイミングになったか否かを判定する。
【0149】
CPU131は、ステップS74において、不意打ち撮影を行うタイミングになっていないと判定した場合、ステップS73に戻り、それ以降の処理を繰り返し実行し、一方、不意打ち撮影を行うタイミングになったと判定した場合、ステップS75に進む。
【0150】
ステップS75において、CPU131は、撮影カウント値が、予め設定されている(ステップS71で取得した)不意打ち撮影回数より小さいか否かを判定し、小さくない(大きい)と判定した場合、ステップS73に戻り、それ以降の処理を繰り返し実行する。上述したように、図18に示される不意打ち撮影処理は、編集処理と並行して実行されているため、ステップS73以降の処理が、編集処理が終了されるまで繰り返し実行される。
【0151】
一方、ステップS75において、CPU131は、撮影カウント値が、予め設定されている不意打ち撮影回数より小さいと判定した場合、ステップS76に進み、アニメーションを編集用モニタ41−1および41−2に表示するとともに、不意打ち撮影を行う。
【0152】
すなわち、ステップS76において、編集用モニタ41−1および41−2には、図16に示されるように、編集を行っているユーザを、カメラマンが撮影するようなアニメーションが表示され、カメラマンが撮影するタイミングに合わせて、CCD44−1および44−2により撮影が行われる。不意打ち撮影による撮影結果の画像は、RAM133などに保存されるとともに、画像選択部202に追加して表示される(図14のステップS54)。
【0153】
不意打ち撮影が行われた後、CPU131は、ステップS77において、撮影カウント値に1を加算し、ステップS73に戻り、それ以降の処理を繰り返し実行する。すなわち、不意打ち撮影が複数回行われることが予定されている場合、予定されているタイミングになったとき、再度、不意打ち撮影が行われる。
【0154】
図14に示される編集処理が終了されたとき、それに伴い、図18に示される不意打ち撮影処理も終了される。
【0155】
以上の例においては、不意打ち撮影が行われるときに表示されるキャラクタはカメラマンのキャラクタであるとしたが、それ以外にも、様々なキャラクタが表示され、キャラクタのアニメーションとともに、不意打ち撮影が行われるようにすることができる。
【0156】
例えば、UFOから登場してきた宇宙人により、突然撮影が行われるアニメーションが表示されるようにしてもよいし、銃を持った人物が現れ、その銃をユーザ側に向けて発砲するアニメーションが表示され、その直後に撮影が行われるようにしてもよい。これにより、表示されるアニメーションにより驚いているユーザの表情が撮影される。
【0157】
また、上述したようなアニメーションが、撮影処理において不意打ち撮影が行われるときに表示されるようにしてもよい。その際、アニメーションの表示とともに、音声や効果音が図示せぬスピーカから出力されるようにしてもよい。
【0158】
さらに、以上においては、ランダムに所定の値が選択され、その値に基づいて、不意打ち撮影が行われるタイミングが決定されるとしたが、撮影のタイミングだけでなく、不意打ち撮影が行われるか否か自体が、ランダムに選択された値に基づいて決定されるようにしてもよい。これにより、不意打ち撮影が行われるかもしれないという期待感をユーザに与えることができる。
【0159】
図19は、画像印刷装置1により印刷され、シール取り出し口31に排出されたシール紙の例を示す図である。
【0160】
図19に示されるように、シール紙231には、ユーザにより設定された分割数(4分割)に従って、文字や図形などの編集(落書き)が施された画像が印刷される。
【0161】
なお、図19の編集画像において、被写体の画像(人物の画像)の周辺に、或いは、被写体の画像に一部重畳して示されている「コノヤロ」、「スゴイ」の文字、およびハート形や星形のスタンプ画像はユーザにより入力された編集画像である。このように、ユーザは、好みの文字や画像を、撮影された画像に対して施すことができる。
【0162】
このようなシール紙が、画像印刷装置1を利用したユーザに対して提供される。
【0163】
以上においては、ユーザが撮影結果の画像を確認しているとき、編集対象の画像を選択しているとき、或いは、選択した画像を編集しているときの所定のタイミングで不意打ち撮影が行われるとしたが、ユーザの所定の行動をトリガとして撮影が行われるようにしてもよい。
【0164】
例えば、マイクロホン19により集音されたユーザの音声に基づいて、音量が所定の閾値を超えたことが判定されたとき、それをトリガとして不意打ち撮影が行われるようにすることができる。所定の閾値以上の音量の音声が検出されたとき、ユーザ(複数のユーザ)が、表示されている画像を見て盛り上がっていることが予想されるため、このときに不意打ち撮影を行うことで、より自然なユーザの表情や姿を撮影することができる。
【0165】
また、CPU131による音声認識の結果、例えば、ユーザが「わー!」などの所定の言葉を発していたことが検出されたとき、それをトリガとして不意打ち撮影が行われるようにすることができる。例えば、撮影用モニタ16に「「わー!」と叫ぶと撮影されるよ」などの案内を表示することで、ユーザは、その案内に従って叫ぶ毎に撮影を行うことができる。すなわち、ユーザが叫ぶたびに撮影結果の画像が増えていくため、ボタンを操作し、撮影の開始を指示してから撮影を行う場合と較べて、意外感のある、より面白みのある撮影を提供することができる。
【0166】
さらに、CCD21により取り込まれているユーザの画像を解析し、ユーザが撮影用モニタ16に表示されている画像を指していることが検出されたとき、それをトリガとして撮影を行うなど、様々なユーザの行動をトリガとして不意打ち撮影を行うようにすることができる。
【0167】
以上においては、編集処理において行われた不意打ち撮影により取得された画像は、編集対象の画像として追加されるとしたが、不意打ち撮影により取得された画像が、そのとき編集対象画像表示部201に拡大表示されている画像に重畳して、スタンプ画像として入力されるようにしてもよい。
【0168】
【発明の効果】
本発明によれば、自然な表情や姿をしているユーザを撮影することができる。
【0169】
また、本発明によれば、意外性のある画像を撮影することができ、より面白みのある撮影を提供することができる。
【図面の簡単な説明】
【図1】本発明を適用した画像印刷装置の外観の例を示す斜視図である。
【図2】本発明を適用した画像印刷装置の他の外観の例を示す斜視図である。
【図3】図1の画像印刷装置の配置の例を示す図である。
【図4】図1の画像印刷装置の配置の例を上方から示す図である。
【図5】図1の画像印刷装置の構成例を示すブロック図である。
【図6】図5の制御装置の構成例を示すブロック図である。
【図7】画像印刷装置の顧客応対処理を説明するフローチャートである。
【図8】図7のステップS2において実行される撮影処理の詳細を説明するフローチャートである。
【図9】図8のステップS15において表示される撮影用モニタの表示例を示す図である。
【図10】図8のステップS19において表示される撮影用モニタの表示例を示す図である。
【図11】図7のステップS2において実行される撮影処理の詳細を説明する他のフローチャートである。
【図12】図11のステップS36において表示される撮影用モニタの表示例を示す図である。
【図13】図11のステップS41において表示される撮影用モニタの表示例を示す図である。
【図14】図7のステップS3において実行される編集処理の詳細を説明するフローチャートである。
【図15】図14のステップS51において表示される編集用モニタの表示例を示す図である。
【図16】編集用モニタの表示例を示す図である。
【図17】編集用モニタの他の表示例を示す図である。
【図18】画像印刷装置の不意打ち撮影処理を説明するフローチャートである。
【図19】シール紙の例を示す図である。
【符号の説明】
1 画像印刷装置
12 撮影装置
16 撮影用モニタ
17 操作パネル
19 マイクロホン
31 シール取り出し口
41−1,41−2 編集用モニタ
91 制御装置
96 シール紙ユニット
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a photo sticker vending machine and method, a print medium, and a print medium unit, and more particularly, to a photo sticker vending machine and method, a print medium, and a photo sticker vending method that can capture a more unexpected and more suitable image. The present invention relates to a print medium unit.
[0002]
[Prior art]
2. Description of the Related Art A photo sticker vending machine such as a so-called “Print Club (registered trademark)” that shoots an image of a user, combines the image with a frame image prepared in advance, and prints the image on a sticker or the like is known. ing.
[0003]
When taking a picture using such a photo sticker vending machine, generally, the user checks his / her own moving image (real view) captured by the camera on a screen provided substantially in front of the user. Meanwhile, a preferable pose, facial expression, standing position, and the like are adjusted.
[0004]
Then, when the adjustment is completed, the user instructs the apparatus to start photographing, and performs photographing according to the countdown output in response to the instruction. As described above, since the photographing can be performed after the pose and the expression are adjusted, the user can photograph a more attractive image.
[0005]
[Problems to be solved by the invention]
However, as described above, when shooting is performed in response to an instruction from the user, the user stands up in synchronization with the shooting timing, and the facial expression and pose of the shot user are usually not seen. There was a problem that it could become unnatural.
[0006]
The present invention has been made in view of such a situation, and it is an object of the present invention to make it possible to shoot a surprising image and to improve the entertainment of shooting.
[0007]
[Means for Solving the Problems]
The photo sticker vending machine according to the present invention includes a first photographing unit that performs photographing based on a user's instruction to photograph, and a predetermined timing that is different from the timing at which photographing is performed by the first photographing unit. And a second photographing means for photographing without an instruction from a user.
[0008]
For example, the first photographing unit and the second photographing unit may be configured by the same photographing device, or may be configured by photographing devices provided at different positions. .
[0009]
The photo sticker vending machine of the present invention may further include a first display unit for displaying an image of a photographed result. At this time, the second photographing means performs photographing when the image of the photographed result by the first photographing means is displayed on the first display means.
[0010]
The image processing apparatus may further include an editing unit that edits the editing target image selected from the image of the shooting result, and the second shooting unit may perform shooting when the editing target image is selected.
[0011]
The second photographing means can photograph when the user is editing the image to be edited.
[0012]
The apparatus further includes voice detection means for detecting a voice of the user, wherein the second photographing means detects a voice having a volume equal to or higher than a predetermined threshold by the voice detection means, or detects a voice having predetermined content. The photographing can be performed based on what has been done.
[0013]
The image capturing apparatus further includes an operation detection unit that detects a user operation based on the captured image, and the second imaging unit performs imaging based on detection of a predetermined operation by the operation detection unit. be able to.
[0014]
The operation detected by the operation detecting means refers to various operations of the user, and may be, for example, an operation in which the user is pointing at the screen.
[0015]
When an image is captured by the second image capturing unit, the image capturing apparatus may further include a second display unit that displays a predetermined image indicating that the image capturing is performed.
[0016]
As the predetermined image to be displayed, for example, only text information may be displayed, or a still image of a character or an animation image (moving image) may be displayed.
[0017]
According to the photographing method in the photo sticker vending machine of the present invention, a first photographing step of performing photographing based on a user's instruction to photograph, and a timing at which photographing is performed by the processing of the first photographing step And a second photographing step of performing photographing at a predetermined timing different from the instruction from the user.
[0018]
In the photo sticker vending machine and the method of the present invention, shooting is performed based on an instruction to shoot from the user, and at a predetermined timing different from the timing at which the shooting is performed, regardless of the instruction from the user. The shooting is performed.
[0019]
Therefore, according to the present invention, it is possible to photograph a user who has a surprising and more natural expression and appearance. Further, since the shooting is suddenly performed without depending on the operation by the user, it is possible to provide more interesting shooting.
[0020]
The print medium of the present invention includes a first imaging step of performing imaging based on an instruction from the user to perform imaging, and a predetermined timing different from the timing at which imaging is performed by the processing of the first imaging step. And a second photographing step of photographing without an instruction from a user.
[0021]
The print medium unit according to the present invention includes a first photographing unit that performs photographing based on an instruction from a user to photograph, and a predetermined timing different from a timing at which photographing is performed by the first photographing unit. A print medium unit used in a photo sticker vending machine having a second photographing means for performing photographing without an instruction from the user, and an identification information storage means for storing identification information for identifying the print medium unit. And wherein the identification information is usable when it is authenticated by a photo sticker vending machine.
[0022]
The identification information storage means is composed of, for example, a memory such as an IC tag (control tag) or an IC card, and stores a unique ID as identification information.
[0023]
In this way, the print medium unit can be used only when the identification information is authenticated, so that only the unit produced for the photo sticker vending machine of the present invention can be used, and other than the so-called genuine product Can be prevented from being used. Further, when a bar code or the like is attached to the print medium unit, whether or not the print medium unit is a genuine product may be determined based on the bar code.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a perspective view showing a configuration example of an image printing apparatus 1 as a photo sticker vending machine to which the present invention is applied.
[0025]
On a vertical surface 1A of the image printing device 1, a photographing device 12 is provided so as to protrude from the surface 1A via a holding member 13. The photographing device 12 can be moved up and down within a predetermined range in accordance with a rail 14 provided in a direction perpendicular to the surface 1A. Further, the photographing device 12 is attached to the holding member 13 so as to be able to swing up and down in a vertical plane about a joint with the holding member 13.
[0026]
Therefore, a user using the image printing apparatus 1 adjusts the photographing device 12 to a desired height according to the rails 14, and is provided with a front surface (CCD (Charge Coupled Device) 21 and an image display unit 22) of the photographing device 12. Surface) can be adjusted to the desired angle to shoot.
[0027]
The imaging device 12 is provided with a CCD 21, and an image display unit 22 is provided below the CCD 21. The image of the subject is captured by the CCD 21, and the captured image (moving image) is displayed on the image display unit 22 in real time. For example, at the timing instructed by the user, shooting is performed by the CCD 21 and the image of the user (subject) is stored in the image printing apparatus 1 as a still image. Since the image display unit 22 is provided in the vicinity of the CCD 21, the user can shoot while checking his / her own image displayed on the image display unit 22 while looking at the CCD 21. .
[0028]
Further, in the image printing apparatus 1, shooting is automatically performed at a predetermined timing when the user does not instruct to start shooting. Therefore, since the photographing is performed at a timing not intended by the user, a surprising image is photographed. The photographing process performed by the image printing apparatus 1 will be described later in detail with reference to a flowchart.
[0029]
A flash irradiation unit 15-1 is provided on the left side of the imaging device 12 (rail 14), and a flash irradiation unit 15-2 is provided on the right side. The flash irradiators 15-1 and 15-2 transmit the flash light emitted from the illumination device provided inside the image printing device 1 at the timing when the image is captured by the imaging device 12 (CCD 21), and Irradiate.
[0030]
Below the flash irradiator 15-2, there is provided a photographing monitor 16 composed of an LCD (Liquid Crystal Display), a CRT (Cathode-Ray Tude), or the like. On the photographing monitor 16, various messages and the like for guiding the photographing method and the like are displayed according to the progress of the photographing process. Further, since the photographed image is displayed on the photographing monitor 16, the user can select an image to be edited (graffiti) from the displayed photographed images. As will be described later, after the photographing is completed, the user can move to the back side of the image printing apparatus 1 and input desired characters, figures, and the like to the photographed image to perform editing.
[0031]
The operation unit 11 is provided below the imaging monitor 16 so as to protrude from the surface 1A. The upper surface 11A of the operation unit 11 is provided so as to face slightly obliquely upward, and the operation panel 17 is provided there. The user proceeds with the shooting process using various buttons provided on the operation panel 17.
[0032]
The operation panel 17 includes, for example, an "O button" operated when deciding various selections displayed on the photographing monitor 16, and an "X button" operated when canceling the decided one. An "arrow button (up / down / left / right button)" or the like operated when moving a cursor or the like displayed on the imaging monitor 16 up, down, left and right is arranged. In addition, a “photographing start button” which is operated when photographing is started is appropriately arranged. The operation unit 11 is also provided with an input pen or the like for making various selections by directly pressing the input pen on the imaging monitor 16.
[0033]
A coin slot 18 is provided at the lower left of the surface 1A. The user inserts a predetermined price into the coin slot 18 when taking a picture using the image printing apparatus 1.
[0034]
A microphone 19 is provided near the imaging monitor 16. The microphone 19 collects the voice of the user who is operating according to the description displayed on the imaging monitor 16. As will be described later, for example, based on the sound collected by the microphone 19, at a predetermined timing such as when it is detected that the user is uttering a voice having a volume equal to or higher than a predetermined threshold value, ( Shooting is performed (independent of user operation).
[0035]
A seal outlet 31 is provided below the left side surface 1B of the image printing apparatus 1. The photographed and edited image is printed on a sticker sheet in a predetermined size, and the obtained sticker sheet is discharged from the sticker outlet 31.
[0036]
FIG. 2 is a perspective view illustrating a configuration example of the surface 1C side, which corresponds to the opposite side of the surface 1A of the image printing apparatus 1. In the following, the surface on which the surface 1A is provided will be appropriately described as the front of the image printing device 1, and the surface on which the surface 1C is provided and corresponding to the opposite side of the surface 1A will be referred to as the back of the image printing device 1. explain.
[0037]
On the surface 1C of the image printing apparatus 1, editing monitors 41-1 and 41-2 are juxtaposed in the horizontal direction. A storage section 42-1 is provided below the editing monitor 41-1. An input pen 43-1 for editing an image by directly pressing the editing monitor 41-1 is stored therein. You. Similarly, a storage unit 42-2 is provided below the editing monitor 41-2, and an input pen 43-2 for editing an image by directly pressing the storage unit 42-2 on the editing monitor 41-2. Is stored.
[0038]
The image photographed by the photographing device 12 and selected as the image to be edited is displayed on the editing monitors 41-1 and 41-2 after the user completes the photographing process. A touch panel is stacked on the editing monitors 41-1 and 41-2, and the user can use the input pens 43-1 and 43-2 to input arbitrary characters and graphics on the displayed image. And write (input).
[0039]
On the editing monitors 41-1 and 41-2, buttons for selecting various editing tools are displayed together with the image to be edited. Then, when the button is operated and the image is edited, the edited monitor 41-1 and 41-2 display the edited image generated according to the input.
[0040]
The input pens 43-1 and 43-2 are configured in accordance with a position detection method (for example, a resistive film type, an ultrasonic type, or the like) of the touch panel stacked on the editing monitors 41-1 and 41-2.
[0041]
CCDs 44-1 and 44-2 are provided near the editing monitors 41-1 and 41-2, respectively. As will be described later, the CCD 44-1 and 44-2 photograph the user editing the image at a predetermined timing.
[0042]
FIG. 3 is a diagram illustrating an example of an arrangement of the image printing apparatus 1.
[0043]
A background panel 61 is installed at a position facing the front (surface 1A) of the image printing apparatus 1 at a predetermined distance from the user, and the user shoots an image in a shooting space 62 between the image printing apparatus 1 and the background panel 61. Do. The photographing space 62 has a ceiling member 63 supported by the upper surface of the image printing apparatus 1 and the background panel 61, and a curtain 64-1 and a side panel 65- so that the inside of the photographing space 62 cannot be seen from the outside. 1 is provided.
[0044]
An editing space 73 is provided at a position facing the surface 1C as a space for moving after finishing shooting and editing an image. In the editing space 73, a curtain 72-1 is attached to the curtain frame 71 in order to prevent the inside of the editing space 73 from being seen from the outside. The curtain 72-1 is provided on substantially the same plane as the surface 1B, and the curtain 72-2 is provided at a predetermined distance away from the surface 1C. In this example, the curtain frame 71 is provided on substantially the same plane as the ceiling member 43.
[0045]
FIG. 4 is a diagram illustrating an example of the arrangement of the image printing apparatus 1 from above.
[0046]
As shown in FIG. 4, similarly to the surface 1B, the curtain 64-2 and the side panel are provided on the right side 1D side of the image printing apparatus 1 in order to prevent the inside of the photographing space 62 from being seen from the outside. 65-2 is provided. The inside of the photographing space 62 (the inside of the background panel 61, the ceiling member 63, the side panels 65-1, 65-2, etc.) can extract only the user's image from the image photographed by the photographing device 12 by so-called chroma processing. Thus, for example, the surface is a single color such as white or blue.
[0047]
With reference to FIG. 4, a description will be given of the movement of the user from the start of shooting to the reception of the sticker sheet.
[0048]
When using the image printing apparatus 1, the user enters the photographing space 62 as shown by the outline arrow A1, and performs photographing processing. Therefore, when the photographing space 62 is used, the user who wants to use the image printing apparatus 1 waits for the photographing space 62 to become empty in the waiting space 74 in front of the side panel 61, for example. become.
[0049]
When a predetermined number of images are selected as images to be edited and shooting is completed, the user exits the shooting space 62 as indicated by an outline arrow A2, for example, as indicated by an outline arrow A3. To the editing space 73 provided on the back side of the image printing apparatus 1.
[0050]
At this time, the user who has been waiting for a turn in the waiting space 74 (the user who has been waiting for the shooting space 62 to be vacant) moves the group of users who have used the shooting space 62 first to the editing space 73. Accordingly, the user enters the shooting space 62.
[0051]
As described above, the editing monitors 41-1 and 41-2, which can be confirmed from the editing space 73, display images selected in the shooting space 62 and displayed, and the user edits them. When the user finishes the editing, the user next moves to the print waiting space 75 facing the surface 1B of the image printing apparatus 1 as indicated by the outline arrow A4, and the edited image is printed on the sticker paper. And wait until discharged.
[0052]
Then, when the seal paper is discharged to the seal outlet 31, the user receives it and ends the use of the image printing apparatus 1. The guidance of these movements is performed by the photographing monitor 16, the editing monitors 41-1 and 41-2, or a speaker (not shown).
[0053]
In this way, by providing a space for photographing, a space for editing, and a space for waiting for printing to be completed in front of different surfaces of the image printing apparatus 1, photographing processing, editing processing, and printing processing can be performed in parallel. The turnover of the customer who uses the image printing apparatus 1 can be improved as compared with the case where these processes are executed in one space. In addition, the time required for the photographing process, the time required for the editing process, and the like can be ensured longer for each set of users.
[0054]
FIG. 5 is a block diagram illustrating an example of the internal configuration of the image printing apparatus 1. Detailed description of the same configuration as described above will be omitted as appropriate.
[0055]
The control device 91 is configured by a personal computer or the like, and controls the overall operation of the image printing device 1. Specifically, it is stored in a storage unit 136 (both shown in FIG. 6) configured by a ROM (Read Only Memory) 132 or a hard disk by a CPU (Central Processing Unit) 131 provided in the control device 91. Processing based on the program is executed.
[0056]
The coin processing unit 92 detects when a predetermined money has been inserted into the coin insertion slot 18 by the user, and notifies the control device 91 of the detection. The illumination control unit 93 emits flash light based on an instruction from the control device 91 at the same time as the timing at which the subject is photographed by the photographing device 12. The emitted flash light irradiates a subject (user) via the flash irradiation units 15-1 and 15-2 in FIG.
[0057]
A touch panel 94-1 is stacked on the editing monitor 41-1 provided on the surface 1C of the image printing apparatus 1, and a touch panel 94-2 is stacked on the editing monitor 41-2. Touch panels 94-1 and 94-2 output, to control device 91, instructions from the user input by input pens 43-1 and 43-2.
[0058]
The printer unit 95 includes a printer unit 111 and a control tag reader / writer 112. The seal paper unit 96 mounted on the printer unit 95 manages the seal paper 121, identification information for identifying each seal paper unit 96, and the like. It is configured by a control tag 122.
[0059]
When image data subjected to editing processing or the like is supplied from the control device 91, the printer unit 111 seals an image represented by the supplied image data according to the size and division number of the image selected by the user. Printing is performed on the paper 121, and the seal paper 121 is discharged to the seal outlet 31.
[0060]
The control tag reader / writer 112 reads the identification information stored in the control tag 122 by contact or non-contact, and outputs it to the control device 91. The control device 91 determines whether the attached seal paper unit 96 is a unit that can be used in the image printing apparatus 1 based on the identification information supplied from the control tag reader / writer 112, and The printer unit 111 is made operable only when it is determined that the unit is a unit. That is, the control device 91 manages the identification information of the seal paper unit that can be used in the image printing apparatus 1.
[0061]
Accordingly, it is possible to suppress the use of the seal paper that is not compatible with the image printing apparatus 1 (not the genuine seal paper). The control tag 122 also manages the remaining amount of the seal paper 121 and the like. Whether or not the seal paper unit 96 is genuine may be confirmed by a barcode or the like printed on the seal paper unit 96.
[0062]
FIG. 6 is a block diagram illustrating a detailed configuration example of the control device 91 in FIG.
[0063]
The CPU 131 executes various processes according to a program stored in the ROM 132 or a program loaded from the storage unit 136 into a RAM (Random Access Memory) 133. The RAM 133 also appropriately stores data necessary for the CPU 131 to execute various processes.
[0064]
The CPU 131, the ROM 132, and the RAM 133 are mutually connected via a bus 134. The input / output interface 135 is also connected to the bus 134.
[0065]
The input / output interface 135 includes a photographing device 12, a photographing monitor 16, an operation panel 17, a microphone 19, editing monitors 41-1 and 41-2 (editing monitor 41), a CCD 44-1 and a CCD shown in FIG. 44-2 (CCD 44), coin processing unit 92, illumination control unit 93, touch panels 94-1 and 94-2 (touch panel 94), and printer unit 95 are connected.
[0066]
The storage unit 136 stores a program executed by the CPU 131, data of a background image to be combined with an image of a subject captured by the imaging device 12, data of an image obtained by shooting, and the like. As described later, in the photographing processing, photographing can be performed a predetermined number of times, and the storage unit 136 stores image data of a number corresponding to the number of times of photographing.
[0067]
A drive 137 is connected to the input / output interface 135, if necessary, and a magnetic disk 151, an optical disk 152, a magneto-optical disk 153, a semiconductor memory 154, or the like is appropriately mounted thereon. The image data is stored in the storage unit 136 as needed.
[0068]
Next, the processing of the image printing apparatus 1 will be described with reference to a flowchart.
[0069]
First, with reference to the flowchart of FIG. 7, the overall processing of the image printing apparatus 1 in response to a customer (user) using the image printing apparatus 1 will be described.
[0070]
In step S1, the CPU 131 of the control device 91 determines whether or not the price has been inserted based on the output from the coin processing unit 92, that is, whether or not there is a user who starts photographing. Wait until it is determined.
[0071]
If the CPU 131 determines in step S <b> 1 that the payment has been made, the process proceeds to step S <b> 2, where the CPU 131 executes a shooting process in the shooting space 62. That is, shooting is repeatedly performed a preset number of times, and when an image to be edited is selected from the obtained images, the shooting process ends. The photographing process executed in step S2 will be described later in detail with reference to the flowcharts of FIGS.
[0072]
In step S3, the CPU 131 executes an editing process for editing a captured image according to an input from a user. The editing process executed in step S3 will be described later in detail with reference to the flowchart in FIG.
[0073]
In step S4, the CPU 131 transfers the image data of the edited image generated by the editing process to the printer unit 111 of the printer unit 95 and prints the image data. When the printing process is completed, the process returns to step S1, and the above processes are repeatedly executed.
[0074]
The processing illustrated in FIG. 7 is performed not only in chronological order according to the described order, but also in parallel according to the usage status of the image printing apparatus 1 at that time. For example, when the first user finishes shooting in the shooting space 62, and immediately after moving to the editing space 73, the second user starts shooting in the shooting space 62, the shooting process (step S2 in FIG. 7) in FIG. 2) and the editing process (the first user process) in step S3 are performed in parallel. Similarly, each of the photographing process, the editing process, and the printing process in step S4 is performed in parallel according to the situation.
[0075]
Next, details of the photographing processing executed in step S2 in FIG. 7 will be described with reference to the flowchart in FIG.
[0076]
In step S11, the CPU 131 sets, for example, shooting conditions such as the height of the shooting device 12, a shooting angle, and a shooting mode based on an input from the user. Specifically, the CPU 131 sequentially displays screens for setting various photographing environments on the photographing monitor 16, controls the photographing device 12 and the like according to a user's input to the displayed screen, and sets photographing conditions.
[0077]
In step S12, the CPU 131 causes the photographing monitor 16 to display a photographing screen. On this shooting screen, for example, a moving image (real view) of the user captured by the CCD 21 and a shooting start button operated to instruct the start of shooting are displayed.
[0078]
In step S13, the CPU 131 determines whether or not the user has instructed to start shooting based on whether or not the shooting start button displayed on the shooting screen has been operated. If it is determined that no instruction has been given, the process returns to step S12, and the display of the shooting screen is continued.
[0079]
On the other hand, if the CPU 131 determines in step S13 that the user has instructed to start shooting, the process proceeds to step S14, in which the CPU 131 controls the shooting device 12 to perform shooting according to the set shooting conditions. For example, when the countdown to the shooting is displayed on the shooting monitor 16 and the time until the shooting becomes “0” (when the countdown becomes “0”), the illumination control unit 93 is controlled and the flash is turned on. And photographing is performed by the CCD 21 (shutter is closed). Data of an image obtained by shooting is stored in the RAM 133 or the storage unit 136.
[0080]
In step S15, the CPU 131 displays the image of the photographing result obtained by the immediately preceding photographing on the photographing monitor 16, and prompts the user to confirm.
[0081]
FIG. 9 is a diagram showing an example of a screen displayed on the photographing monitor 16 in step S15. As shown in FIG. 9, an image P1 photographed by the CCD 21 is displayed substantially at the center of the screen. The user confirms the photographed image P1 on this screen.
[0082]
In step S16, the CPU 131 determines whether or not a predetermined time has elapsed since displaying the image of the photographing result (after displaying the screen of FIG. 9), and until determining that the predetermined time has elapsed. stand by. The predetermined time is, for example, 4 or 5 seconds. If the CPU 131 determines in step S16 that the predetermined time has elapsed since the image of the photographed result has elapsed, the process proceeds to step S17, and the CPU 131 The shooting is performed unexpectedly without depending on the instruction (hereinafter, the shooting performed without the instruction from the user is appropriately referred to as the unexpected shooting).
[0083]
That is, the unexpected shooting performed in step S17 causes the user who is checking the image of the shooting result to be suddenly shot. Unlike the shooting performed in step S14, the user prepares for shooting. Since there is no time to adjust the facial expression and pose, it is possible to photograph a natural facial expression of the user as usual. Further, since a surprising image can be photographed, more interesting photographing can be provided.
[0084]
The data of the image obtained by the above-described unexpected shooting is also stored in the RAM 133 or the like in the same manner as the data of the image obtained by the shooting performed in step S14 (the shooting performed based on the instruction from the user).
[0085]
In step S18, the CPU 131 determines whether or not to end the shooting, returns to step S12, and repeatedly executes the subsequent processes until it is determined that the shooting is to be ended. For example, in the image printing apparatus 1, the number of possible photographings is set in advance by a predetermined number, and the photographing is ended when the remaining number of possible photographings becomes “0”. Further, when the remaining time of the preset time limit runs out, the shooting is forcibly terminated.
[0086]
If the CPU 131 determines in step S18 that the shooting is to be ended, the process advances to step S19 to control the display of the shooting monitor 16, display a list of images of the shooting results, and perform editing in the editing process (editing image ) Is selected by the user.
[0087]
FIG. 10 is a diagram showing an example of a screen displayed on the photographing monitor 16 in step S19.
[0088]
In the display example shown in FIG. 10, a message “Please select only four images from these” is displayed at the top of the screen, and below the image, the image captured in step S14 and the step S17 are displayed. The images (images P11 to P18) obtained by the unexpected shooting performed in the above are displayed in a list.
[0089]
A message "The selected image will be displayed here" is displayed below the images P11 to P18, and up to four types of images selected as images to be edited are displayed below the message. Is displayed. For example, the user moves the cursor 161 by operating the operation panel 17 according to the guidance displayed at the bottom of the screen, and selects an image to be edited by pressing the enter button (circle button).
[0090]
In the example of FIG. 10, the image P11 is selected as an image to be edited from among the images P11 to P18 displayed in a list, and the user can subsequently select three types of images. The remaining time limit set for the selection of the image to be edited is displayed at the upper right of the screen, and is set to "73 seconds" in the example of FIG.
[0091]
Returning to the description of FIG. 8, in step S20, the CPU 131 accepts the selection of the image to be edited, proceeds to step S21, and determines whether the selection of the image has been completed. When the CPU 131 determines that the selection of the image has not been completed, the process returns to step S19, and the selection screen as shown in FIG. 10 is kept displayed.
[0092]
On the other hand, in step S21, for example, when four types of images are selected as the images to be edited, and thus it is determined that the selection of the images has been completed, the CPU 131 ends the photographing process. After that, the processes after step S3 in FIG. 7 are executed.
[0093]
When the photographing process is completed, a message such as "move to the back of the machine" is displayed on the photographing monitor 16, and the user is guided to move to the editing space 73. . Following this guidance, the user who has completed the shooting process moves from the shooting space 62 to the editing space 73.
[0094]
In the above description, the normal shooting is performed when instructed by the user, and the unexpected shooting is performed at a predetermined timing in which the image of the shooting result is displayed. Such timing may be used.
[0095]
Next, with reference to the flowchart in FIG. 11, details of the photographing process (the photographing process performed in step S2 in FIG. 7) in a case where unexpected shooting is performed while the user is selecting an image to be edited will be described. I do.
[0096]
The processing in steps S31 to S34 is the same as the processing in steps S11 to S14 in FIG. That is, in step S31, shooting conditions are set based on an operation from the user, and when it is instructed to start shooting on the shooting screen displayed in step S32, the process proceeds to step S34, and shooting is performed.
[0097]
In step S35, the CPU 131 determines whether or not to end the shooting. For example, if it is determined that the shooting is not to be ended because the number of shootable times still remains, the process returns to step S32 and the subsequent processing is repeated. Execute.
[0098]
On the other hand, if the CPU 131 determines in step S35 that the shooting is to be ended, the process proceeds to step S36, in which a list of the shooting result images is displayed, and the user is allowed to select an image to be edited from among the plurality of images.
[0099]
FIG. 12 is a diagram showing an example of a selection screen displayed on the photographing monitor 16 in step S36. For example, a screen basically similar to the screen shown in FIG. 10 is displayed. Detailed description of the same parts as those described above will be omitted.
[0100]
In this example, shooting is performed five times in response to an instruction from the user, and images P21 to P25 as images of the shooting results are displayed in a list. Further, none of the images is displayed in the column on the right side of the image P23 (image display section) and in the left and right columns of the image P26.
[0101]
The user moves the cursor 171 and selects four types of images to be edited from the displayed images.
[0102]
In step S37, the CPU 131 accepts the selection of the image to be edited based on the operation by the user, proceeds to step S38, and determines whether the selection of the image has been completed.
[0103]
If the CPU 131 determines in step S38 that the selection of the images has not been completed (the four types of images have not been selected on the selection screen in FIG. 12), the process proceeds to step S39, and a list of images of the shooting results is displayed. It is determined whether or not a predetermined time has passed since then, that is, whether or not a predetermined time has passed since the selection screen shown in FIG. 12 was displayed.
[0104]
In step S38, when the CPU 131 determines that the predetermined time has not elapsed since the list of the images of the photographing result has been displayed, the process returns to step S36, and the subsequent processing is repeatedly executed. If it is determined that a predetermined time has elapsed since the list was displayed, the process proceeds to step S40.
[0105]
For example, when four or five seconds have elapsed since the list of the images of the shooting results is displayed, in step S40, shooting is performed unexpectedly. Thereby, the figure of the user who has selected the image to be edited is photographed.
[0106]
In step S41, the CPU 131 additionally displays the image obtained by the unexpected shooting as a shooting result image on the selection screen of the image to be edited. Therefore, the selection screen shown in FIG. 12 is updated to the screen shown in FIG. 13 due to unexpected shooting.
[0107]
In the example of the selection screen shown in FIG. 13, compared to the screen shown in FIG. 12, the image P31 is added to the list of images of the shooting results, and is located on the right of the image P23 (the area where the image was not displayed). ). In addition, for example, since a frame of a predetermined color is displayed or blinks around the added image P31, the user can intuitively know that an image that can be selected by sudden shooting is added. You can check.
[0108]
It should be noted that the remaining time limit when the unexpected shooting is performed and the image is added is set to “69 seconds”, indicating that the screen is four seconds after the screen shown in FIG. 12 is displayed. I have.
[0109]
As described above, the photographing is performed at a timing not intended by the user, and an image that can be selected as the image to be edited is suddenly added, so that a more surprising, in other words, an interesting photographing can be provided.
[0110]
Thereafter, when the shooting is performed again, the obtained image is additionally displayed, for example, in a column below the image P21.
[0111]
The image to be edited is also selected from the images of the shooting results obtained by the unexpected shooting, and if it is determined in step S38 that, for example, four types of images to be edited have been selected, the shooting process ends.
[0112]
In the above, when the screen for confirming the image of the photographing result is displayed (when the screen of FIG. 9 is displayed) or when the screen for selecting the image to be edited is displayed (see FIG. 12). (When the screen shown is displayed), the unexpected shooting is performed at one of the timings, but the unexpected shooting may be performed at both of the timings.
[0113]
In addition, the shooting may be performed unexpectedly at any timing within the period in which the shooting is performed in the shooting space 62. For example, the shooting may be performed suddenly immediately after the price is input. Alternatively, the shooting may be performed after the movement to the editing space 73 is guided.
[0114]
Further, as will be described later in detail, unexpected shooting can be performed also in the editing process.
[0115]
In the above description, when unexpected shooting is performed, for example, only the image of the shooting result is displayed on the screen. However, if the information is expected to affect the expression of the user, the moving image or the still image Various information such as an image or audio information may be output together with the image of the shooting result or separately from the image of the shooting result.
[0116]
For example, by suddenly displaying an image of a ghost (animation) superimposed on an image of a photographed result, it can be expected that a surprised user's expression can be photographed. It can be expected that the expression of the confused user can be photographed.
[0117]
In addition, for example, a moving image of a puppy is displayed separately from the image of the photographing result, and the facial expression of the user watching the photograph is photographed (the photographing is performed at a predetermined timing during the period in which the moving image is displayed) Therefore, it can be expected that the facial expression of the user who is narrowing his eyes can be photographed. That is, by outputting information that is expected to give a change to the expression of these users, it is possible to photograph the user's usual appearance and expression that is not ready for the camera.
[0118]
Next, details of the editing processing executed in step S3 in FIG. 7 will be described with reference to the flowchart in FIG.
[0119]
In step S51, the CPU 131 reads the image data selected as the image to be edited, and displays an editing screen on the editing monitors 41-1 and 41-2 based on the read data.
[0120]
FIG. 15 is a diagram illustrating a display example of the editing screen.
[0121]
As described above, the editing monitors 41-1 and 41-2 are provided side by side in the horizontal direction on the surface 1C of the image printing apparatus 1, and the editing screen as shown in FIG. Is displayed.
[0122]
For example, when the editing process is started, a balloon 191 is displayed at the center of the editing monitor 41-1 and a message "may be taken during scribbling? About two images" is displayed. That is, as described later, when the editing process is started, the user is informed that the unexpected shooting process is being performed in parallel with the editing process and that the unexpected shooting may be performed.
[0123]
The edit screen displayed on the edit monitor 41-1 displays an edit target image display unit 201 in which an edit target image is enlarged and displayed, and the user causes the edit target image display unit 201 to display the edit target image display unit 201. An image is selected by moving the cursor 202C with the input pen 43-1 from the images displayed on the image selection unit 202. The image selection unit 202 displays a list of four types of images selected as images to be edited in the shooting processing.
[0124]
Various buttons operated when selecting an editing tool are displayed near the editing target image display unit 201. For example, a pen menu 203 operated when selecting a “pen tool” for inputting a line or a character in the image to be edited, or a pen menu 203 operated when selecting a “stamp tool” for arranging a predetermined stamp image in the image to be edited A stamp menu 204 and a color selection menu 205 operated when selecting a color of a character or the like input by the “pen tool” are displayed.
[0125]
Also, an eraser menu 206 operated when selecting an "eraser tool" for erasing graffiti or the like once input, a "background brush tool" for arranging a desired texture on a background portion of a subject, and a range thereof are selected. A range adjustment menu 207 operated at the time and a thickness menu 208 operated at the time of selecting the thickness of the “pen tool” are displayed.
[0126]
On the editing screen, a switching button 209 is operated to switch the display direction (vertical direction, horizontal direction) of the image displayed on the editing target image display unit 201, and is operated to cancel the editing input immediately before. A redo button 210 and a redo button 211 operated when canceling all input edits are displayed. Further, at the lower right of the editing monitor 41-1, an end button 212 operated to end the editing process and start printing is displayed.
[0127]
At the upper right of the editing screen, the time limit set for the editing process is displayed, and is set to “90 seconds” in the example shown in FIG.
[0128]
Returning to the description of FIG. 14, when an edit based on the tool selected on the edit screen is input via the touch panels 94-1 and 94-2, the CPU 131 determines in step S52 according to the input from the user. Edit the image selected as the target. For example, when a predetermined pen tool is selected from the pen menu 203 and a character is input to the image to be edited, the CPU 131 superimposes and displays an image corresponding to the input character on the image to be edited.
[0129]
In step S53, the CPU 131 determines whether or not abrupt shooting has been performed by the abrupt shooting process performed in parallel with the editing process. If it is determined that the abrupt shooting has been performed, the process proceeds to step S54. The image of the photographing result obtained by the photographing is added to the image selecting unit 202. If it is determined in step S53 that unexpected shooting has not been performed, the process of step S54 is skipped.
[0130]
When unexpected shooting is performed (step S76 in FIG. 18 described later), for example, as shown in FIG. 16, an image in which the cameraman character C appears from the edge of the screen is displayed on the editing screen. Then, shooting (sudden shooting) is performed by the CCDs 44-1 and 44-2 at the timing when the image of the cameraman who shoots the user editing the image is displayed substantially at the center of the screen.
[0131]
Immediately after the unexpected shooting is performed, an image of the shooting result is additionally displayed on the image selection unit 202 as shown in FIG.
[0132]
In the display example of FIG. 17, the image P51 has been added by accidental shooting, and a message “Added” has been displayed in a balloon 221 displayed near the image P51. By selecting the image P51 added to the image selection unit 202, the user can enlarge and display the image P51 on the edit target image display unit 201 and perform editing (graffiti) on the image P51.
[0133]
The screen shown in FIG. 16 is a screen in which the remaining time of the editing process is displayed at the timing of “51 seconds”, and the screen shown in FIG. 17 is “1” in which the screen shown in FIG. 16 is displayed. "Seconds later" is a screen displayed with the timing of the remaining time of the editing process being "50 seconds".
[0134]
As described above, since the photographing is suddenly performed while the user is editing the image, the natural expression of the user enjoying the photographing can be photographed.
[0135]
In step S55, the CPU 131 determines whether or not to end the editing process. For example, when the CPU 131 determines that the editing process is not to be ended because the end button 212 has not been operated, the process returns to step S52, and the above process is performed. Execute repeatedly.
[0136]
On the other hand, if the end button 212 has been operated or if the preset time limit has expired, the CPU 131 determines in step S55 to end the editing process, proceeds to step S56, and proceeds to steps S51 to S55. During the period in which the processing has been performed, it is determined whether or not unexpected shooting has been performed.
[0137]
When the CPU 131 determines in step S56 that the shooting has been performed unexpectedly, the process proceeds to step S57, and the image on which the graffiti is applied is selected as the image to be printed on the sticker paper 121. That is, when the number of images that can be printed on the sticker paper 121 is up to four types, and unexpected shooting is performed in the editing process even though four types of images have already been selected after shooting has been performed. Since four or more types of images that can be printed are stored in the RAM 133, the images are extracted (narrowed down) so that, for example, four types of edited images are selected as images to be printed. ) Is performed.
[0138]
When four or more types of images are edited, for example, four types of images are selected at random. Naturally, the user may be allowed to select four types of images to be printed on the sticker paper 121.
[0139]
On the other hand, in step S56, when it is determined that the shooting is not performed unexpectedly during the processing of steps S51 to S55, the processing of step S57 is skipped.
[0140]
In step S58, the CPU 131 causes the editing monitors 41-1 and 41-2 to display a selection screen for the number of divisions (print pattern) for selecting the arrangement and size of the image to be printed on the sticker paper 121, and allows the user to select the screen. To select the number of divisions. That is, a plurality of division numbers are prepared in the image printing apparatus 1 in advance, and the user can select a desired print pattern. When the number of divisions is selected by the user, the editing process ends.
[0141]
When the editing process is completed, the CPU 131 causes the editing monitors 41-1 and 41-2 to display a message for guiding the user to move to the print waiting space 75. The user moves to the print waiting space 75 according to the displayed message, and waits for the sticker paper to be discharged from the sticker outlet 31.
[0142]
Thereafter, the process proceeds to step S4 in FIG. 7, and the edited composite image is printed on the sticker paper 121. That is, the CPU 131 outputs the data of the edited composite image to the printer unit 111 and prints the image on the sticker paper 121 based on the data. The sticker paper 121 on which the composite image is printed is discharged from the sticker outlet 31.
[0143]
Next, with reference to the flowchart of FIG. 18, a description will be given of the unexpected shooting processing of the image printing apparatus 1 which is executed in parallel with the editing processing described with reference to FIG. 14.
[0144]
In step S71, the CPU 131 acquires the timing of performing the unexpected shooting and the number of times of the unexpected shooting performed during the editing process. For example, at a predetermined timing such as when a price is input or when an editing process is started, the timing and the number of unexpected shootings performed during the editing process are determined and stored in the RAM 133. Have been.
[0145]
The unexpected shooting in the editing process is performed, for example, in the first half of the time limit set for the editing process so as not to affect the editing operation of the user. Specifically, when “90 seconds” is set as the time limit of the editing process as described above, the shooting is performed unexpectedly from the start of the editing process to “60 seconds”.
[0146]
The timing of the sudden shooting is, for example, a value obtained by multiplying a value of 0 to 1 at random and multiplying the selected value by “60 (seconds)” as the upper limit time during which the sudden shooting is performed. Is done. For example, when the value of “0.5” is selected at random, the result of multiplying the value by “60 seconds” indicates that “30 seconds” have elapsed since the start of the editing process. Is determined and stored.
[0147]
The CPU 131 sets the shooting count value to “0” in step S72, proceeds to step S73, and obtains the time since the start of the editing process. This photographing count value indicates the number of times of unexpected photographing.
[0148]
In step S74, the CPU 131 determines whether or not it is time to perform unexpected shooting based on the timing of the unexpected shooting obtained in step S71 and the time from the start of the editing process obtained in step S73.
[0149]
If the CPU 131 determines in step S74 that it is not time to perform the unexpected shooting, the process returns to step S73, and repeatedly executes the subsequent processing. Proceed to S75.
[0150]
In step S75, the CPU 131 determines whether or not the photographing count value is smaller than a preset number of unexpected shootings (obtained in step S71). If not, the CPU 131 returns to step S73. And the subsequent processes are repeatedly executed. As described above, since the unexpected shooting processing shown in FIG. 18 is executed in parallel with the editing processing, the processing from step S73 is repeatedly executed until the editing processing is completed.
[0151]
On the other hand, if the CPU 131 determines in step S75 that the shooting count value is smaller than the preset number of times of unexpected shooting, the process proceeds to step S76, where the animation is displayed on the editing monitors 41-1 and 41-2, and , Shooting unexpectedly.
[0152]
That is, in step S76, an animation is displayed on the editing monitors 41-1 and 41-2, as shown in FIG. 16, such that the user who is editing is shot by the cameraman, and the cameraman shoots. Photographing is performed by the CCDs 44-1 and 44-2 according to the timing. The image of the shooting result obtained by the unexpected shooting is stored in the RAM 133 or the like, and additionally displayed on the image selection unit 202 (step S54 in FIG. 14).
[0153]
After the unexpected shooting is performed, the CPU 131 adds 1 to the shooting count value in step S77, returns to step S73, and repeatedly executes the subsequent processes. In other words, when the unexpected shooting is scheduled to be performed a plurality of times, the unexpected shooting is performed again at the scheduled timing.
[0154]
When the editing process shown in FIG. 14 is ended, the unexpected shooting process shown in FIG. 18 is also ended.
[0155]
In the above example, the character displayed when the shooting is performed unexpectedly is the cameraman's character. In addition, various characters are displayed, and the shooting is performed together with the animation of the character. Can be
[0156]
For example, an animation in which sudden shooting is performed by an alien who has appeared from the UFO may be displayed, or an animation in which a person with a gun appears and the gun is fired at the user side is displayed. Alternatively, the shooting may be performed immediately after that. Thereby, the expression of the user who is surprised by the displayed animation is photographed.
[0157]
Further, the above-described animation may be displayed when unexpected shooting is performed in the shooting process. At this time, a sound or a sound effect may be output from a speaker (not shown) together with the display of the animation.
[0158]
Furthermore, in the above description, the predetermined value is randomly selected, and the timing at which the unexpected shooting is performed is determined based on the value, but not only the shooting timing but also whether or not the unexpected shooting is performed. It may itself be determined based on a randomly selected value. This can give the user a sense of expectation that unexpected shooting may be performed.
[0159]
FIG. 19 is a diagram illustrating an example of a sticker sheet printed by the image printing apparatus 1 and discharged to the sticker outlet 31.
[0160]
As shown in FIG. 19, on the sticker sheet 231, an image on which editing (graffiti) of characters, graphics, and the like has been performed is printed in accordance with the number of divisions (four divisions) set by the user.
[0161]
In the edited image in FIG. 19, the characters “Konoyaro” and “Sugoi”, which are shown around the subject image (person image) or partially superimposed on the subject image, and a heart-shaped The star-shaped stamp image is an edited image input by the user. In this way, the user can apply a desired character or image to the captured image.
[0162]
Such a sticker is provided to a user who uses the image printing apparatus 1.
[0163]
In the above, when the user is confirming the image of the photographing result, when selecting the image to be edited, or when shooting is performed at a predetermined timing when editing the selected image, However, the shooting may be performed with a predetermined action of the user as a trigger.
[0164]
For example, when it is determined based on the user's voice collected by the microphone 19 that the volume exceeds a predetermined threshold, the shooting can be performed unexpectedly using the trigger as a trigger. When a sound having a volume equal to or higher than a predetermined threshold is detected, it is expected that the user (a plurality of users) is excited when looking at the displayed image, and by performing unexpected shooting at this time, It is possible to photograph a more natural expression and appearance of the user.
[0165]
Further, as a result of the voice recognition by the CPU 131, for example, when it is detected that the user has uttered a predetermined word such as “Wow!”, It is possible to perform an unexpected shooting using this as a trigger. For example, by displaying a guidance such as "You will be taken when you shout" Wow! "" On the photographing monitor 16, the user can take a picture every time he shouts according to the guidance. That is, since the image of the shooting result increases each time the user shouts, a more interesting and more interesting shooting is provided compared to the case where the button is operated and the start of the shooting is instructed and the shooting is performed. can do.
[0166]
Further, the image of the user captured by the CCD 21 is analyzed, and when it is detected that the user is pointing to the image displayed on the photographing monitor 16, the photographing is performed using the image as a trigger. A sudden shooting can be performed using this action as a trigger.
[0167]
In the above description, the image acquired by the unexpected shooting performed in the editing process is added as an image to be edited. However, the image acquired by the unexpected shooting is enlarged to the editing image display unit 201 at that time. It may be superimposed on the displayed image and input as a stamp image.
[0168]
【The invention's effect】
According to the present invention, it is possible to photograph a user who has a natural expression or appearance.
[0169]
Further, according to the present invention, a surprising image can be photographed, and a more interesting photographing can be provided.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an example of the appearance of an image printing apparatus to which the present invention has been applied.
FIG. 2 is a perspective view showing another example of the appearance of the image printing apparatus to which the present invention is applied.
FIG. 3 is a diagram illustrating an example of an arrangement of the image printing apparatus in FIG. 1;
FIG. 4 is a diagram illustrating an example of an arrangement of the image printing apparatus in FIG. 1 from above.
FIG. 5 is a block diagram illustrating a configuration example of the image printing apparatus of FIG. 1;
FIG. 6 is a block diagram illustrating a configuration example of a control device in FIG. 5;
FIG. 7 is a flowchart illustrating a customer response process of the image printing apparatus.
FIG. 8 is a flowchart illustrating details of a photographing process performed in step S2 of FIG. 7;
9 is a diagram showing a display example of a photographing monitor displayed in step S15 of FIG.
FIG. 10 is a diagram showing a display example of a photographing monitor displayed in step S19 of FIG. 8;
FIG. 11 is another flowchart illustrating details of the photographing process performed in step S2 of FIG. 7;
12 is a diagram illustrating a display example of a photographing monitor displayed in step S36 of FIG.
FIG. 13 is a diagram showing a display example of a photographing monitor displayed in step S41 of FIG. 11;
FIG. 14 is a flowchart illustrating details of an editing process executed in step S3 of FIG. 7;
FIG. 15 is a diagram showing a display example of an editing monitor displayed in step S51 of FIG. 14;
FIG. 16 is a diagram illustrating a display example of an editing monitor.
FIG. 17 is a diagram showing another display example of the editing monitor.
FIG. 18 is a flowchart illustrating unexpected shooting processing of the image printing apparatus.
FIG. 19 is a diagram illustrating an example of a seal sheet.
[Explanation of symbols]
1 Image printing device
12 Imaging equipment
16 Monitor for shooting
17 Operation panel
19 microphone
31 Seal outlet
41-1, 41-2 Editing monitor
91 Controller
96 Seal paper unit

Claims (10)

ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影手段と、
前記第1の撮影手段により撮影が行われるタイミングと異なる所定のタイミングにおいて、前記ユーザからの指示によらずに撮影を行う第2の撮影手段と
を備えることを特徴とする写真シール自動販売機。
First photographing means for photographing based on an instruction from the user to photograph,
A photo sticker vending machine, comprising: a second photographing means for photographing at a predetermined timing different from a timing at which photographing is performed by the first photographing means, without depending on an instruction from the user.
撮影結果の画像を表示する第1の表示手段をさらに備え、
前記第2の撮影手段は、前記第1の表示手段により前記第1の撮影手段による撮影結果の画像が表示されているときに撮影を行う
ことを特徴とする請求項1に記載の写真シール自動販売機。
A first display unit for displaying an image of the photographing result;
2. The automatic photo sticker according to claim 1, wherein the second photographing unit performs photographing when the image of the photographed result by the first photographing unit is displayed on the first display unit. 3. Vending machine.
撮影結果の画像から選択された編集対象画像を編集する編集手段をさらに備え、
前記第2の撮影手段は、前記編集対象画像の選択が行われているときに撮影を行う
ことを特徴とする請求項1または2に記載の写真シール自動販売機。
Further provided is an editing means for editing the edit target image selected from the image of the shooting result,
3. The photo sticker vending machine according to claim 1, wherein the second photographing means performs photographing while the image to be edited is being selected.
前記第2の撮影手段は、前記ユーザにより前記編集対象画像の編集が行われているとき撮影を行う
ことを特徴とする請求項3に記載の写真シール自動販売機。
4. The photo sticker vending machine according to claim 3, wherein the second photographing means performs photographing when the user is editing the image to be edited.
前記ユーザの音声を検出する音声検出手段をさらに備え、
前記第2の撮影手段は、前記音声検出手段により所定の閾値以上の音量の音声が検出されたことに基づいて、または、所定の内容の音声が検出されたことに基づいて撮影を行う
ことを特徴とする請求項1乃至4のいずれかに記載の写真シール自動販売機。
The apparatus further includes voice detection means for detecting a voice of the user,
The second photographing unit performs photographing based on detection of a sound having a volume equal to or greater than a predetermined threshold by the sound detection unit, or based on detection of sound having predetermined content. The photo sticker vending machine according to any one of claims 1 to 4, wherein
取り込まれている画像に基づいて、前記ユーザの動作を検出する動作検出手段をさらに備え、
前記第2の撮影手段は、前記動作検出手段により所定の動作が検出されたことに基づいて撮影を行う
ことを特徴とする請求項1乃至5のいずれかに記載の写真シール自動販売機。
Further comprising an operation detecting means for detecting an operation of the user based on the captured image,
The photo sticker vending machine according to any one of claims 1 to 5, wherein the second photographing unit performs photographing based on a predetermined operation detected by the operation detecting unit.
前記第2の撮影手段により撮影が行われるとき、撮影が行われることを表す所定の画像を表示する第2の表示手段をさらに備える
ことを特徴とする請求項1乃至6のいずれかに記載の写真シール自動販売機。
7. The apparatus according to claim 1, further comprising: a second display unit configured to display a predetermined image indicating that the image is taken when the second image taking unit performs the image taking. Photo sticker vending machine.
ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影ステップと、
前記第1の撮影ステップの処理により撮影が行われるタイミングと異なる所定のタイミングにおいて、前記ユーザからの指示によらずに撮影を行う第2の撮影ステップと
を含むことを特徴とする写真シール自動販売機における写真撮影方法。
A first photographing step of performing photographing based on an instruction from the user to photograph,
A second photographing step of performing photographing at a predetermined timing different from a timing at which photographing is performed by the processing of the first photographing step, without depending on an instruction from the user, wherein a photograph sticker vending is performed. How to take a photo on the machine.
ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影ステップと、
前記第1の撮影ステップの処理により撮影が行われるタイミングと異なる所定のタイミングにおいて、前記ユーザからの指示によらずに撮影を行う第2の撮影ステップと
を含む写真シール自動販売機における写真撮影方法により印刷されることを特徴とする印刷媒体。
A first photographing step of performing photographing based on an instruction from the user to photograph,
A photographing method for a photo sticker vending machine including a second photographing step of photographing at a predetermined timing different from a timing at which photographing is performed by the processing of the first photographing step, without depending on an instruction from the user. A print medium characterized by being printed by a printer.
ユーザから撮影することが指示されることに基づいて撮影を行う第1の撮影手段と、
前記第1の撮影手段により撮影が行われるタイミングと異なる所定のタイミングにおいて、前記ユーザからの指示によらずに撮影を行う第2の撮影手段と
を備える写真シール自動販売機において使用される印刷媒体ユニットであって、
前記印刷媒体ユニットを識別する識別情報を記憶する識別情報記憶手段を備え、
前記識別情報記憶手段により記憶されている前記識別情報が前記写真シール自動販売機により認証されたとき使用可能とされる
ことを特徴とする印刷媒体ユニット。
First photographing means for photographing based on an instruction from the user to photograph,
A print medium used in a photo sticker vending machine including a second photographing unit that performs photographing at a predetermined timing different from a timing at which photographing is performed by the first photographing unit without depending on an instruction from the user. A unit,
An identification information storage unit that stores identification information for identifying the print medium unit,
The print medium unit, wherein the identification information stored by the identification information storage means is enabled when the identification information is authenticated by the photo sticker vending machine.
JP2002216134A 2002-07-25 2002-07-25 Photo sticker vending machine and photographing method Expired - Fee Related JP4288558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002216134A JP4288558B2 (en) 2002-07-25 2002-07-25 Photo sticker vending machine and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002216134A JP4288558B2 (en) 2002-07-25 2002-07-25 Photo sticker vending machine and photographing method

Publications (2)

Publication Number Publication Date
JP2004062273A true JP2004062273A (en) 2004-02-26
JP4288558B2 JP4288558B2 (en) 2009-07-01

Family

ID=31937969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002216134A Expired - Fee Related JP4288558B2 (en) 2002-07-25 2002-07-25 Photo sticker vending machine and photographing method

Country Status (1)

Country Link
JP (1) JP4288558B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185208A (en) * 2004-12-28 2006-07-13 Make Softwear:Kk Image input apparatus and method, and program
JP2006317655A (en) * 2005-05-12 2006-11-24 Ims:Kk Photographic sticker delivery device and its control method
JP2015167420A (en) * 2015-07-01 2015-09-24 オリンパス株式会社 Digital camera, and composite image display method for camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185208A (en) * 2004-12-28 2006-07-13 Make Softwear:Kk Image input apparatus and method, and program
JP2006317655A (en) * 2005-05-12 2006-11-24 Ims:Kk Photographic sticker delivery device and its control method
JP2015167420A (en) * 2015-07-01 2015-09-24 オリンパス株式会社 Digital camera, and composite image display method for camera

Also Published As

Publication number Publication date
JP4288558B2 (en) 2009-07-01

Similar Documents

Publication Publication Date Title
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP3876985B2 (en) Photo sticker vending machine and image printing method
JP6880394B2 (en) Photographing game console and shooting method
JP2004015735A (en) Image printing apparatus and method, printing medium, and printing medium unit
JP2004077582A (en) Photographic seal vending machine and method, seal paper, and seal paper unit
JP2004072404A (en) Automatic photograph sticker vending machine and method, printing medium, and printing medium unit
JP6864212B2 (en) Photographing game console and shooting method
JP4288558B2 (en) Photo sticker vending machine and photographing method
JP5212461B2 (en) Image processing apparatus and image processing method
JP5268080B2 (en) Photo game machine
JP2003032586A (en) Image printer, image printing method, print medium and program
JP2003047000A (en) Image print creating apparatus and method therefor and print medium
JP2006162719A (en) Photographic sticker-vending machine and its method and program
JP3817735B2 (en) Image printing apparatus and method
JP4207429B2 (en) Image printing device, print medium unit
JP2004048374A (en) Photograph seal vending machine and method therefor photograph seal, and photograph seal unit
JP5533778B2 (en) Image editing apparatus and method, and program
JP4816823B2 (en) Image printing apparatus and method
JP2007127826A (en) Photographic apparatus
JP3418387B2 (en) Image printing apparatus and method, and program
JP2005234354A (en) Automatic photograph forming device and method
JP3548845B2 (en) Image printing apparatus and method, and program
JP4877425B2 (en) Image printing apparatus and method
JP4816824B2 (en) Image printing apparatus and method
JP4816822B2 (en) Image printing apparatus and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070403

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090305

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090318

R150 Certificate of patent or registration of utility model

Ref document number: 4288558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140410

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees