JP2006217183A - Data processor and program for generating multimedia data - Google Patents
Data processor and program for generating multimedia data Download PDFInfo
- Publication number
- JP2006217183A JP2006217183A JP2005026911A JP2005026911A JP2006217183A JP 2006217183 A JP2006217183 A JP 2006217183A JP 2005026911 A JP2005026911 A JP 2005026911A JP 2005026911 A JP2005026911 A JP 2005026911A JP 2006217183 A JP2006217183 A JP 2006217183A
- Authority
- JP
- Japan
- Prior art keywords
- data
- processing
- image
- user
- timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 claims abstract description 406
- 238000000034 method Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 57
- 238000005286 illumination Methods 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000013500 data storage Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000003860 storage Methods 0.000 description 55
- 238000009877 rendering Methods 0.000 description 49
- 239000010410 layer Substances 0.000 description 37
- 238000004364 calculation method Methods 0.000 description 31
- 239000003550 marker Substances 0.000 description 27
- 238000009966 trimming Methods 0.000 description 23
- 238000007726 management method Methods 0.000 description 22
- 230000008859 change Effects 0.000 description 21
- 230000000694 effects Effects 0.000 description 20
- 238000004519 manufacturing process Methods 0.000 description 19
- 241000282693 Cercopithecidae Species 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000002365 multiple layer Substances 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
Description
本発明は、マルチメディアデータを生成するためのデータ生成技術に関する。 The present invention relates to a data generation technique for generating multimedia data.
ユーザの好みに合ったマルチメディアデータを簡易に作成することを可能とする技術がある。例えば、ユーザによるアニメーションのタイトルの選択、メッセージの入力および受取人のメールアドレスの指定に応じて、メッセージ入りのアニメーション付きグリーティングカードを自動生成し、指定されたメールアドレスに送信するシステムが広く利用されている。 There is a technology that makes it possible to easily create multimedia data that suits user preferences. For example, a system that automatically generates an animated greeting card with a message and sends it to a specified e-mail address in response to the user selecting an animation title, entering a message, and specifying the recipient's e-mail address is widely used. ing.
例えば特許文献1は、グリーティングカード等を示すマルチメディアデータの雛形に対し、ユーザが許容範囲内において自由に変更を加えることにより、ユーザが積極的に創作性を発揮しつつ新たなマルチメディアデータを生成することを可能とする技術を開示している。
ところで、上記の従来技術による場合、マルチメディアデータの生成にあたりユーザの動画を用いることはできなかった。従って、ユーザは自分の動画が含まれるマルチメディアデータを気軽に作成することができない、という問題があった。 By the way, in the case of the above prior art, a user's moving image cannot be used for generating multimedia data. Therefore, there is a problem that the user cannot easily create multimedia data including his / her moving image.
上記の状況に鑑み、本発明は、ユーザが自分自身の動画データを含むマルチメディアデータを気軽に作成する手段を提供することを目的とする。 In view of the above situation, an object of the present invention is to provide a means for a user to easily create multimedia data including his / her own moving image data.
上記課題を達成するために、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段とを備えることを特徴とするデータ処理装置を提供する。 In order to achieve the above object, the present invention provides operation instruction data that stores operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction should be notified to the user. Storage means, image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on the image data in association with timing data indicating timing at which the processing is to be executed, The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of instruction at a timing according to the timing data associated with the operation instruction data, and the image processing instruction data, User image data at a timing according to the timing data associated with the image processing instruction data To provide a data processing apparatus characterized by comprising an image processing instruction data transmission means for transmitting to the image data processing apparatus for processing.
かかる構成のデータ処理装置によれば、通知装置により適切なタイミングで通知される指導に従い動作するユーザの画像データに対し、画像データ処理装置により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing device having such a configuration, as a result of appropriate processing performed at an appropriate timing by the image data processing device, the image data of the user who operates according to the instruction notified at an appropriate timing by the notification device, Image data indicating a moving image that makes the user more entertaining is generated.
また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段とを備えることを特徴とするデータ処理装置を提供する。 The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. The image processing instruction data for instructing the processing to be executed is stored in association with the timing data indicating the timing at which the processing is to be executed, and the operation instruction data indicates Operation instruction notification means for notifying the user of the instruction to be performed at a timing corresponding to the timing data associated with the operation instruction data, and the timing associated with the image processing instruction data and the image processing instruction data To an image data processing device that processes user image data at a timing according to the data To provide a data processing apparatus characterized by comprising an image processing instruction data transmission means for signals.
かかる構成のデータ処理装置によれば、動作指導通知手段により適切なタイミングでユーザに対し適切な動作の指導が通知されるとともに、その指導に従い動作するユーザの画像データに対し、画像データ処理装置により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing apparatus having such a configuration, the operation instruction notification unit notifies the user of instruction of an appropriate operation at an appropriate timing, and the image data processing apparatus operates on the image data of the user operating according to the instruction. As a result of performing an appropriate processing at an appropriate timing, image data indicating a moving image that makes the user more entertaining is generated.
また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、撮像装置より、ユーザの画像データを受信する画像データ受信手段と、前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段とを備えることを特徴とするデータ処理装置を提供する。 The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. Image processing instruction data storage means for storing image processing instruction data instructing a processing process to be executed in association with timing data indicating a timing at which the processing process is to be executed, and the operation instruction data, Image data for receiving user image data from the imaging device and operation instruction data transmitting means for transmitting to the notification device for notifying the user at the timing according to the timing data associated with the operation instruction data A receiving unit and a processing process instructed by the image processing instruction data are applied to the image processing instruction data. At a timing corresponding to the timing data attached, to provide a data processing apparatus characterized by comprising an image data processing means for performing the image data of the user.
かかる構成のデータ処理装置によれば、通知装置により適切なタイミングで通知される指導に従い動作するユーザの画像データに対し、画像データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing device having such a configuration, as a result of appropriate processing being performed at an appropriate timing by the image data processing means on the image data of the user operating according to the instruction notified at an appropriate timing by the notification device, Image data indicating a moving image that makes the user more entertaining is generated.
また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、撮像装置より、ユーザの画像データを受信する画像データ受信手段と、前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段とを備えることを特徴とするデータ処理装置を提供する。 The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. The image processing instruction data for instructing the processing to be executed is stored in association with the timing data indicating the timing at which the processing is to be executed, and the operation instruction data indicates Operation instruction notifying means for notifying the user at a timing according to the timing data associated with the operation instruction data, image data receiving means for receiving user image data from the imaging device, and A processing process instructed by the image processing instruction data is performed with a tag associated with the image processing instruction data. At a timing corresponding to the timing data, to provide a data processing apparatus characterized by comprising an image data processing means for performing the image data of the user.
かかる構成のデータ処理装置によれば、動作指導通知手段により適切なタイミングでユーザに対し適切な動作の指導が通知されるとともに、その指導に従い動作するユーザの画像データに対し、画像データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing apparatus having such a configuration, the operation instruction notification unit notifies the user of the appropriate operation instruction at an appropriate timing, and the image data processing unit applies the image data of the user operating according to the instruction. As a result of performing an appropriate processing at an appropriate timing, image data indicating a moving image that makes the user more entertaining is generated.
好ましい態様において、前記データ処理装置は、前記画像データ処理手段による加工処理の結果生成される画像データにより示される画像を表示する表示手段をさらに備える構成としてもよい。 In a preferred aspect, the data processing device may further include a display unit that displays an image indicated by image data generated as a result of the processing by the image data processing unit.
かかる構成のデータ処理装置によれば、ユーザは生成された画像データに従い表示される動画を楽しむことができる。 According to the data processing apparatus having such a configuration, the user can enjoy a moving image displayed according to the generated image data.
他の好ましい態様において、前記データ処理装置は、前記画像データ処理手段による加工処理の結果生成される画像データを記憶する画像データ記憶手段をさらに備える構成としてもよい。 In another preferred aspect, the data processing device may further include an image data storage unit that stores image data generated as a result of the processing by the image data processing unit.
かかる構成のデータ処理装置によれば、ユーザは生成された画像データを希望する時に利用することができる。 According to the data processing apparatus having such a configuration, the user can use the generated image data when desired.
他の好ましい態様において、前記データ処理装置は、ユーザが行うべき発声の指導を示す発声指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する発声指導データ記憶手段と、音声データに対し実行されるべき加工処理を指示する音声処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する音声処理指示データ記憶手段と、前記発声指導データにより示される指導を、前記発声指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する発声指導通知手段と、拾音装置より、ユーザの音声データを受信する音声データ受信手段と、前記音声処理指示データにより指示される加工処理を、前記音声処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの音声データに対し行う音声データ処理手段とをさらに備える構成としてもよい。 In another preferred embodiment, the data processing device stores utterance instruction data indicating utterance instruction to be performed by the user in association with timing data indicating timing at which the instruction should be notified to the user. Storage means, and voice processing instruction data storage means for storing voice processing instruction data for instructing processing to be executed on the voice data in association with timing data indicating timing at which the processing is to be executed; Voice guidance notification means for notifying the user of guidance indicated by the voice guidance data at a timing according to timing data associated with the voice guidance data, and voice data of the user are received from the sound pickup device. The voice data receiving means and the processing process instructed by the voice processing instruction data are processed by the voice At a timing corresponding to the timing data associated with physical instruction data may be further provided constituting the audio data processing means for performing relative audio data of the user.
かかる構成のデータ処理装置によれば、発声指導通知手段により適切なタイミングでユーザに対し適切な発声の指導が通知されるとともに、その指導に従いユーザにより発声された音声を示す音声データに対し、音声データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる音声を示す音声データを含んだビデオデータの生成が行われる。 According to the data processing apparatus having such a configuration, the utterance instruction notifying unit notifies the user of instruction of appropriate utterance at an appropriate timing, and the voice data indicating the voice uttered by the user according to the instruction is voiced. As a result of performing appropriate processing at an appropriate timing by the data processing means, video data including audio data indicating audio that makes the user more entertaining is generated.
好ましい態様において、前記データ処理装置は、前記音声データ処理手段による加工処理の結果生成される音データにより示される音を発音する発音手段をさらに備える構成としてもよい。 In a preferred aspect, the data processing device may further include sound generation means for generating a sound indicated by sound data generated as a result of the processing by the sound data processing means.
かかる構成のデータ処理装置によれば、ユーザは生成された音データにより示される音を楽しむことができる。 According to the data processing apparatus having such a configuration, the user can enjoy the sound indicated by the generated sound data.
他の好ましい態様において、前記データ処理装置は、前記音声データ処理手段による加工処理の結果生成される音データを記憶する音データ記憶手段をさらに備える構成としてもよい。 In another preferred aspect, the data processing device may further include sound data storage means for storing sound data generated as a result of the processing by the sound data processing means.
かかる構成のデータ処理装置によれば、ユーザは生成された音データを希望する時に利用することができる。 According to the data processing apparatus having such a configuration, the user can use the generated sound data when desired.
好ましい態様において、前記データ処理装置は、撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信する動作指示データ送信手段とをさらに備える構成としてもよい。 In a preferred aspect, the data processing device receives operation instruction data for instructing an operation to be executed by at least one of the imaging device, the moving device for moving the imaging device, and the illumination device at a timing at which the operation is to be executed. An operation instruction data storage unit that stores the operation instruction data in association with the timing data shown, and an imaging device that generates the image data of the user at a timing corresponding to the timing data associated with the operation instruction data, It is good also as a structure further provided with the movement apparatus which moves an imaging device, and the operation instruction data transmission means which transmits to at least 1 of the illuminating device which irradiates light with respect to a user.
かかる構成のデータ処理装置によれば、撮像装置、移動装置もしくは照明装置により、適切なタイミングで適切な撮像処理、移動処理もしくは照明の照射処理が行われるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing device having such a configuration, an image showing a moving image that makes the user more enjoyable because an appropriate imaging process, a moving process, or an illumination irradiation process is performed at an appropriate timing by the imaging device, the moving device, or the lighting device. Data is generated.
他の好ましい態様において、前記データ処理装置は、撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信するとともに、前記画像データ処理手段にも送信する動作指示データ送信手段とをさらに備え、前記画像データ処理手段は、前記ユーザの画像データに対し、前記動作指示データに従った加工処理を行う構成としてもよい。 In another preferred embodiment, the data processing device is configured to execute operation instructions data indicating operation instructions to be executed by at least one of an imaging device, a moving device that moves the imaging device, and an illumination device. An operation instruction data storage unit that stores the operation instruction data in association with timing data, and an imaging apparatus that generates the image data of the user at a timing corresponding to the timing data associated with the operation instruction data. And an operation instruction data transmitting means for transmitting to at least one of a moving device for moving the imaging device and an illuminating device for irradiating light to a user, and also for transmitting to the image data processing means. The data processing means processes the image data of the user according to the operation instruction data. It may be configured to perform.
かかる構成のデータ処理装置によれば、撮像装置、移動装置もしくは照明装置により、適切なタイミングで適切な撮像処理、移動処理もしくは照明の照射処理が行われるとともに、画像データ処理手段により、それらの処理と連動した画像データの加工処理が行われるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing device having such a configuration, the imaging device, the moving device, or the illumination device performs appropriate imaging processing, movement processing, or illumination irradiation processing at an appropriate timing, and the image data processing unit performs these processing. Since the processing of the image data in conjunction with is performed, image data indicating a moving image that makes the user more entertaining is generated.
他の好ましい態様において、前記データ処理装置は、前記画像データ受信手段により順次受信されるユーザの画像データの時間的な変化に応じて変化する画像データを順次生成する画像データ生成手段をさらに備え、前記画像データ処理手段は、前記ユーザの画像データに代えて、もしくは前記ユーザの画像データに加えて、前記画像データ生成手段により生成された画像データに対し、前記画像処理指示データに従った加工処理を行う構成としてもよい。 In another preferred aspect, the data processing apparatus further comprises image data generating means for sequentially generating image data that changes in accordance with temporal changes in user image data sequentially received by the image data receiving means, The image data processing means performs processing according to the image processing instruction data on the image data generated by the image data generation means instead of or in addition to the user image data. It is good also as composition which performs.
かかる構成のデータ処理装置によれば、ユーザの動作に応じて変化する動画を示す画像データが生成されるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the data processing device having such a configuration, image data indicating a moving image that changes according to the user's operation is generated, and therefore, image data indicating a moving image that makes the user more entertaining is generated.
他の好ましい態様において、前記データ処理装置は、前記動作指導通知手段による前記通知に要した時間もしくは前記画像データ処理手段による前記加工処理に要した時間の少なくともいずれかに基づき、ユーザに対する課金額を示す課金データを生成する課金データ処理手段をさらに備える構成としてもよい。 In another preferred embodiment, the data processing device calculates a billing amount for the user based on at least one of the time required for the notification by the motion instruction notification means or the time required for the processing by the image data processing means. It is good also as a structure further provided with the accounting data processing means which produces | generates the accounting data shown.
また、他の好ましい態様において、前記データ処理装置は、前記動作指導通知手段による前記通知の回数もしくは前記画像データ処理手段による前記加工処理の回数の少なくともいずれかに基づき、ユーザに対する課金額を示す課金データを生成する課金データ処理手段をさらに備える構成としてもよい。 In another preferable aspect, the data processing device is configured to charge a user with a charge amount based on at least one of the number of notifications by the motion instruction notification unit or the number of processings by the image data processing unit. It may be configured to further include billing data processing means for generating data.
かかる構成のデータ処理装置によれば、ユーザの利用状況に応じた適切な課金がなされる。 According to the data processing apparatus having such a configuration, an appropriate charge is made according to the usage status of the user.
また、本発明は、上記のデータ処理装置により行われる処理をコンピュータに実行させるプログラムを提供する。 The present invention also provides a program that causes a computer to execute processing performed by the data processing apparatus.
かかる構成のプログラムによれば、例えば汎用のコンピュータにより、ユーザをより楽しませる動画を示す画像データの生成が行われる。 According to the program having such a configuration, for example, a general-purpose computer generates image data indicating a moving image that makes the user more entertaining.
[1.第1実施形態]
以下、本発明の実施形態として、例えばゲームセンター等に配置可能なブースにおいて、ユーザが登場人物として参加する短編映画のビデオデータを自動生成するシステムを説明する。以下の説明において、画像とは動画および静止画の総称であり、画像データとは動画データおよび静止画データの総称である。
[1. First Embodiment]
Hereinafter, as an embodiment of the present invention, a system for automatically generating video data of a short movie in which a user participates as a character in a booth that can be arranged at a game center or the like will be described. In the following description, an image is a generic term for moving images and still images, and an image data is a generic term for moving image data and still image data.
[1.1.ビデオ生成システムの構成]
図1は、本発明の実施形態にかかるビデオ生成システム1がブースに設置された様子を示している。また、図2は、ビデオ生成システム1の構成を示している。ビデオ生成システム1は、ビデオ生成装置10、ビデオ生成装置10に対しユーザの指示を与えるためのコントローラ11、ユーザの声を拾音しその声を示す音信号をビデオ生成装置10に出力するとともに断続的に所定の周波数の超音波を発する機能を備えたマイク12aおよびマイク12b、ビデオ生成装置10から出力される音信号を増幅するアンプ13、アンプ13から出力される音信号を音に変換し出力するスピーカ14Lおよびスピーカ14R、撮像した画像を示す画像データを順次生成して出力するビデオカメラ15a〜d、ビデオカメラ15a〜dの位置および方向をモータ等により各々変化させるカメラ移動装置16a〜d、指定された色および明るさの光をユーザに照射する照明装置17a〜f、ビデオ生成装置10から出力される画像データに従い画像表示を行うディスプレイ18、超音波を受信し受信した超音波の波形を示す電気信号をビデオ生成装置10に出力する超音波受信器19a〜d、そしてビデオ生成装置10から出力されるデータをフラッシュメモリ等の記憶媒体に記憶するメディアドライブ20を備えている。また、ビデオ生成装置10はインターネット21に接続されている。
[1.1. Configuration of video generation system]
FIG. 1 shows a state in which a
ビデオ生成システム1は、マイク、スピーカ、ビデオカメラ、カメラ移動装置、照明装置および超音波受信器をそれぞれ複数備えているが、以下、複数の同種の構成部を区別する必要がない場合には、単にマイク12のように呼ぶ。また、ビデオ生成システム1が備えるマイク12等の数は例示であり、超音波受信器19の数が4以上である点を除き、自由に変更可能である。さらに、例えばディスプレイ18を複数設けるなど、他の構成部の数も自由に変更可能である。
The
マイク12は、好ましくは小型のワイヤレスマイクであり、例えばクリップ等によりユーザの胸元等に容易に装着可能である。また、マイク12aおよびマイク12bは、各々、超音波を発生する超音波発生器121aおよび超音波発生器121bを備えており、上述したように断続的に超音波を発生するが、超音波発生器121aと超音波発生器121bの発生する超音波の周波数は互いに異なり、いずれの超音波がいずれのマイク12から発せされたものであるかの区別が可能となっている。超音波発生器121は、ブース内においてマイク12から発せられた超音波が超音波受信器19に到達するために要する時間よりも十分に長い時間間隔で、超音波の発生を繰り返す。より具体的には、例えば超音波発生器121は、0.5秒間、超音波を発した後、1秒間は超音波を発せず、その後、同様の処理を繰り返す。これは、後述するマイク位置算出部205の処理において、マイク12からの距離が異なる超音波受信器19a〜dの各々が次々と受信する超音波のうち、いずれが同じタイミングでマイク12から発せされたものであるかを容易に区別可能とするためである。
The
続いて、ビデオ生成装置10の構成を説明する。ビデオ生成装置10は記憶部101、入出力I/F(Interface)102および制御部103を備えている。記憶部101は、制御部103による各種処理を指示するプログラムを予め記憶し、また制御部103により生成されるデータを一時的に記憶する。さらに、記憶部101は予め、複数のストーリデータ1010を記憶している。
Next, the configuration of the
ストーリデータ1010は、1つの短編映画の撮影におけるカメラワークの制御やバックグラウンドサウンド(背景音)の再生等を指示するとともに、台詞や演技指導の文字表示、演技指導の音声データの再生等を指示するデータである。本実施形態においては、ユーザはビデオ生成システム1により短編映画の撮影を行うにあたり、まず、複数の物語(以下、「ストーリ」と呼ぶ)の中から好みのものを選択する。そのため、記憶部101には予め、ユーザにより選択可能な複数のストーリの各々に対応するストーリデータ1010が記憶されているのである。以下、ストーリデータ1010の構成を説明する。
Story data 1010 instructs control of camera work and playback of background sound (background sound) in the shooting of one short movie, as well as instructions for display of speech and acting instruction text, reproduction of acting instruction voice data, etc. It is data to be. In this embodiment, when shooting a short movie by the
図3は、記憶部101に記憶されるストーリデータ1010の構成を模式的に示している。図3においては、3つのストーリデータ1010、すなわちストーリデータ1010a〜cが例示されている。各々のストーリデータ1010は、管理データ、イベントシーケンスデータ群、ソースデータ群およびアレンジデータを含んでいる。
FIG. 3 schematically shows the configuration of the story data 1010 stored in the storage unit 101. FIG. 3 illustrates three story data 1010, that is,
図4は、管理データの内容を例示している。管理データは、ストーリデータ1010の名称、ストーリにおいて登場するキャラクタ(以下、「キャラクタ」とは物語において登場する役のことを意味する)の数および属性を示すデータを含んでいる。 FIG. 4 illustrates the contents of the management data. The management data includes data indicating the name of the story data 1010, the number and attributes of characters appearing in the story (hereinafter, “character” means a role appearing in the story).
イベントシーケンスデータ群(図3参照)は、イベントシーケンスデータを格納したファイルの集合体である。イベントシーケンスデータとは、ストーリの進行に伴い実行されるべき各種処理を指示するイベントデータと、当該イベントデータにより指示される処理が実行されるべきタイミングを示すタイミングデータとからなるタイミング付イベントデータの集合である。本実施形態において、イベントシーケンスデータは以下の6つの種別に区分されるものとする。
(a)イベントシーケンスデータBS(バックグラウンドサウンド):背景音楽もしくは背景音の演奏を指示するイベントシーケンスデータ。
(b)イベントシーケンスデータBI(バックグラウンドイメージ):背景画像の表示を指示するイベントシーケンスデータ。
(c)イベントシーケンスデータCI(キャラクタイメージ):キャラクタを示す画像の表示を指示するイベントシーケンスデータ。
(d)イベントシーケンスデータDL(ダイアログ):台詞および演技指導の文字表示および音声再生を指示するイベントシーケンスデータ。
(e)イベントシーケンスデータME(マイクエフェクト):ユーザの音声に対するエフェクト処理の付加および効果音の再生を指示するイベントシーケンスデータ。
(f)イベントシーケンスデータCW(カメラワーク):ビデオカメラのフォーカスやズーム等の制御、ビデオカメラの位置および方向の制御、照明装置の動作制御およびそれらの制御に応じて、バックグラウンドイメージおよびキャラクタイメージに対し行われるべきサイズ変更、色調調整等の調整処理を指示するイベントシーケンスデータ。
The event sequence data group (see FIG. 3) is a collection of files storing event sequence data. Event sequence data refers to event data with timing consisting of event data indicating various processes to be executed as the story progresses, and timing data indicating timing at which the process specified by the event data should be executed. It is a set. In the present embodiment, the event sequence data is classified into the following six types.
(A) Event sequence data BS (background sound): event sequence data for instructing performance of background music or background sound.
(B) Event sequence data BI (background image): Event sequence data instructing display of a background image.
(C) Event sequence data CI (character image): Event sequence data for instructing display of an image showing a character.
(D) Event sequence data DL (dialog): Event sequence data instructing dialogue and performance guidance character display and sound reproduction.
(E) Event sequence data ME (microphone effect): Event sequence data instructing the addition of effect processing to the user's voice and the reproduction of the effect sound.
(F) Event sequence data CW (camera work): control of the focus and zoom of the video camera, control of the position and direction of the video camera, operation control of the illumination device, and the background image and character image according to those controls Event sequence data for instructing adjustment processing such as size change and color tone adjustment to be performed on the image.
また、本実施形態において、上記の各種イベントシーケンスデータを格納するファイルのファイル名は、以下の規則に従うものとする。
(a)イベントシーケンスデータBSを格納するファイルのファイル名:「BS####.ivt」(ただし、「#」は任意の自然数。以下同様。)。
(b)イベントシーケンスデータBIを格納するファイルのファイル名:「BI####.ivt」。
(c)イベントシーケンスデータCIを格納するファイルのファイル名:「CI####.ivt」。
(d)イベントシーケンスデータDLを格納するファイルのファイル名:「DL####.ivt」。
(e)イベントシーケンスデータMEを格納するファイルのファイル名:「ME####.ivt」。
(f)イベントシーケンスデータCWを格納するファイルのファイル名:「CW####.ivt」。
In the present embodiment, the file name of the file storing the various event sequence data is assumed to follow the following rules.
(A) File name of the file storing the event sequence data BS: “BS ####. Ivt” (where “#” is an arbitrary natural number, and so on).
(B) File name of the file storing the event sequence data BI: “BI ####. Ivt”.
(C) File name of the file storing the event sequence data CI: “CI ####. Ivt”.
(D) File name of the file that stores the event sequence data DL: “DL ####. Ivt”.
(E) File name of the file that stores the event sequence data ME: “ME ####. Ivt”.
(F) File name of the file storing the event sequence data CW: “CW ####. Ivt”.
図5は、イベントシーケンスデータBSの内容を例示している。上述したように、イベントシーケンスデータは複数のタイミング付イベントデータを含んでいる。タイミング付イベントデータに含まれるタイミングデータは、ストーリに含まれる各々の場面(以下、「シーン」と呼ぶ)の開始タイミングからの経過時間により、処理の実行タイミングを示している。この点はいずれの種類のイベントシーケンスデータにおいても同様である。 FIG. 5 illustrates the contents of the event sequence data BS. As described above, the event sequence data includes a plurality of event data with timing. The timing data included in the event data with timing indicates the execution timing of the process by the elapsed time from the start timing of each scene (hereinafter referred to as “scene”) included in the story. This is the same for any kind of event sequence data.
一方、タイミング付イベントデータに含まれるイベントデータは、イベントシーケンスデータの種類に応じてその内容が異なる。以下、それらのいくつかを例示するが、イベントデータの種類は以下に説明するものに限られないことは言うまでもない。 On the other hand, the content of event data included in event data with timing differs depending on the type of event sequence data. Hereinafter, some of them will be exemplified, but it goes without saying that the types of event data are not limited to those described below.
図5に示されるイベントシーケンスデータBSは、楽音の発音指示、音データの再生指示およびそれらの指示により発音される音に対するエフェクト付加の指示を行うことにより、背景音楽および背景音の演奏を指示する。例えば、イベントデータ[1ch:ノートオン:D4:74]は、第1のチャンネルに割り当てられた音色の音高D4の楽音を、音強74で発音することを指示している。ここで、チャンネルとは楽曲に含まれる個々の演奏パートのことである。また、イベントデータ[1ch:ディレイ:0.5秒]は、第1のチャンネルの音に対し0.5秒のディレイ効果を付加することを指示している。また、イベントデータ[3ch:再生:SS0514.wav]は、第3のチャンネルとして、音データファイル「SS0514.wav」に格納される音データの再生を行うことを指示している。 The event sequence data BS shown in FIG. 5 instructs the background music and the performance of the background sound by instructing the sound generation of the musical sound, the instruction to reproduce the sound data, and the instruction to add the effect to the sound generated by those instructions. . For example, the event data [1ch: note on: D4: 74] indicates that a musical tone having a tone pitch D4 assigned to the first channel is to be generated with a tone strength of 74. Here, the channel is an individual performance part included in the music. The event data [1ch: delay: 0.5 seconds] instructs to add a delay effect of 0.5 seconds to the sound of the first channel. In addition, event data [3ch: playback: SS0514. wav] instructs to reproduce the sound data stored in the sound data file “SS0514.wav” as the third channel.
図6は、イベントシーケンスデータBIの内容を例示している。本実施形態においてバックグラウンドイメージとは一般的な単層の背景画像を意味せず、キャラクタイメージ以外の画像を示す複層の画像を合成したものを意味する。すなわち、イベントシーケンスデータBIは、背景レイヤ、第1レイヤ、第2レイヤ・・・のように複数のレイヤに配置された画像を順次スーパーインポーズして得られる画像の表示を指示するデータである。 FIG. 6 illustrates the contents of the event sequence data BI. In the present embodiment, the background image does not mean a general single-layer background image, but means a composite of multiple-layer images indicating images other than the character image. That is, the event sequence data BI is data for instructing display of an image obtained by sequentially superimposing images arranged in a plurality of layers such as a background layer, a first layer, a second layer,. .
例えば、イベントデータ[背景レイヤ:表示:BP0815.pic]は、背景レイヤに静止画データファイル「BP0815.pic」に格納される静止画データに従った表示を行うことを指示している。また、イベントデータ[第1レイヤ:表示窓:(10,20)〜(120,180)]は、第1レイヤに、画面上の座標(10,20)と座標(120,180)を対角線の端点とする長方形の表示窓を開くことを指示している。表示窓が開かれた場合、そのレイヤに割り当てられた画像は表示窓の内側にのみ表示される。表示窓の外側は透過表示となるため、その部分には下位レイヤの画像が表示されることになる。また、イベントデータ[第1レイヤ:フェードイン:10秒]は、第1レイヤの表示窓に表示指定される画像に対し10秒間かけてフェードイン処理を施すことを指示している。また、イベントデータ[第1レイヤ:表示:BM0411.mov]は、第1レイヤの表示窓に、動画データファイル「BM0411.mov」に格納される動画データを再生して得られる画像を順次表示させることを指示している。 For example, event data [background layer: display: BP0815. pic] instructs the background layer to perform display according to the still image data stored in the still image data file “BP0815.pic”. In addition, the event data [first layer: display window: (10, 20) to (120, 180)] includes the coordinates (10, 20) and coordinates (120, 180) on the screen as diagonal lines on the first layer. It is instructing to open a rectangular display window as an end point. When the display window is opened, the image assigned to the layer is displayed only inside the display window. Since the outside of the display window is transmissive display, an image of a lower layer is displayed in that portion. Further, the event data [first layer: fade-in: 10 seconds] instructs to perform a fade-in process for 10 seconds on the image specified to be displayed on the display window of the first layer. Also, the event data [first layer: display: BM0411. mov] instructs the display window of the first layer to sequentially display images obtained by reproducing the moving image data stored in the moving image data file “BM0411.mov”.
また、イベントデータ[第2レイヤ:表示:さる.pic]は、第2レイヤの表示窓に、静止画データファイル「さる.pic」に格納される静止画データに従った表示を行うことを指示している。ここで「さる.pic」はキャラクタ「さる」の静止画データを格納するファイルであり、イベントデータ[第2レイヤ:表示:さる.pic]は通常、キャラクタ「さる」の画像表示を指示するイベントデータである。ただし、キャラクタ「さる」がユーザにより選択されたキャラクタである場合、ビデオ生成システム1はイベントデータ[第2レイヤ:表示:さる.pic]に従い、静止画データファイル「さる.pic」に格納される静止画データを用いる代わりに、撮像処理により得られるユーザの静止画データを用いる場合がある。その詳細については後述する。
Also, event data [second layer: display: monkey. pic] instructs the display window of the second layer to perform display according to the still image data stored in the still image data file “Saru.pic”. Here, “Saru.pic” is a file for storing still image data of the character “Saru”, and event data [second layer: display: mon. pic] is usually event data for instructing the image display of the character “monkey”. However, when the character “monkey” is the character selected by the user, the
図7は、イベントシーケンスデータCIの内容を例示している。例えば、イベントデータ[さる:CR0486.mod]は、キャラクタ「さる」の画像を示すデータとして、モデリングデータファイル「CR0486.mod」に格納されているモデリングデータを用いることを指示している。モデリングデータとは、三次元仮想空間における立体(以下、「パーツ」と呼ぶ)の形状、パーツの色彩、隣接するパーツとの結合状態等を示すパーツデータの集合である。例えば、キャラクタ「さる」の画像を示すモデリングデータは、「さる」のボディ、頭、首、上腕、下腕、手、腰、太股、膝および足の各々を示すパーツデータから構成される。例えば頭を示すパーツデータには、そのパーツデータにより示される頭の下部中央が、他のパーツデータにより示される首の上部中央と点結合することを示すデータが含まれている。そのようなパーツデータに従い、個々のパーツの画像が三次元仮想空間内において相互に結合される結果、全体としてキャラクタの三次元画像が特定される。 FIG. 7 illustrates the contents of the event sequence data CI. For example, event data [Saru: CR0486. mod] instructs to use modeling data stored in the modeling data file “CR0486.mod” as data indicating the image of the character “monkey”. Modeling data is a set of part data indicating the shape of a solid (hereinafter referred to as “parts”) in a three-dimensional virtual space, the color of the parts, the connection state with adjacent parts, and the like. For example, the modeling data indicating the image of the character “Saru” is composed of part data indicating each of the body, head, neck, upper arm, lower arm, hand, waist, thigh, knee and foot of “Saru”. For example, the part data indicating the head includes data indicating that the lower center of the head indicated by the part data is point-connected to the upper center of the neck indicated by the other part data. According to such part data, the images of the individual parts are combined with each other in the three-dimensional virtual space, so that the three-dimensional image of the character is specified as a whole.
さらに、例えば頭のパーツデータは、目、眉、鼻、唇、耳等の小パーツを示すパーツデータの集合で構成される。このように、パーツデータが階層的に構成される結果、モデリングデータはキャラクタの画像の複雑な動きを表現することができる。 Furthermore, for example, the head part data is composed of a set of part data indicating small parts such as eyes, eyebrows, nose, lips, and ears. As described above, as a result of the hierarchical construction of the part data, the modeling data can express a complex motion of the character image.
モデリングデータに従いキャラクタの三次元画像を二次元の画面に表示するには、キャラクタの全体としてのサイズと、各パーツの三次元仮想空間における位置および方向が決定される必要がある。図7に例示されるイベントデータ[さる:サイズ5]は、キャラクタの全体のサイズとして、「1」〜「9」で示されるサイズのうち、「5」で示されるサイズを指定している。また、イベントデータ[さる:ボディ位置(15,43,23)]は、三次元仮想空間における座標(15,43,23)で示される位置に、キャラクタのボディの予め定められた代表点を配置することを指示している。さらに、イベントデータ[さる:ボディ方向(20度,5度,10度)]は、キャラクタのボディを、例えば三次元仮想空間における垂直方向を軸に上から見て時計回りに20度回転させ、ボディの正面方向が水平面から5度だけ上方に向くように傾け、さらにボディの正面方向を軸に正面から見て時計回りに10度だけ回転させることを指示している。 In order to display a 3D image of a character on a 2D screen according to modeling data, it is necessary to determine the overall size of the character and the position and direction of each part in the 3D virtual space. The event data [Saru: Size 5] illustrated in FIG. 7 designates the size indicated by “5” among the sizes indicated by “1” to “9” as the overall size of the character. The event data [Saru: body position (15, 43, 23)] arranges a predetermined representative point of the character body at the position indicated by the coordinates (15, 43, 23) in the three-dimensional virtual space. Instructed to do. Furthermore, the event data [Saru: body direction (20 degrees, 5 degrees, 10 degrees)] rotates the body of the character, for example, 20 degrees clockwise as viewed from above with the vertical direction in the three-dimensional virtual space as an axis. The body is tilted so that the front direction of the body is directed upward by 5 degrees from the horizontal plane, and is further instructed to rotate clockwise by 10 degrees when viewed from the front with the front direction of the body as an axis.
イベントデータ[第4レイヤ:さる:表示]は、上記のようにサイズ、位置および方向の決定された三次元仮想空間内のキャラクタ「さる」の画像を、二次元の画面の第4レイヤ上に表示することを指示している。 Event data [fourth layer: monkey: display] is an image of the character “monkey” in the three-dimensional virtual space whose size, position, and direction are determined as described above on the fourth layer of the two-dimensional screen. The display is instructed.
イベントデータ[さる:上腕方向(30度,45度,18度)]は、キャラクタ1の上腕の方向を(30度,45度,18度)で示される方向に変化させることを示している。これらの角度の意味は上記のボディの方向に関し説明したものと同様であるが、各々の角度に従った上腕の回転の軸は、上腕が結合しているボディの方向および結合点の位置により決定される。すなわち、イベントデータ[さる:上腕方向(30度,45度,18度)]は、上腕のボディに対する相対的な方向を示している。このように、イベントシーケンスデータCIは、各タイミングにおける各パーツの位置および方向を指示することにより、全体として動きのあるキャラクタの画像を示す。
Event data [monkey: upper arm direction (30 degrees, 45 degrees, 18 degrees)] indicates that the direction of the upper arm of the
図8は、イベントシーケンスデータDLの内容を例示している。例えば、イベントデータ[演技指導:「後方中央からゆっくり前進して下さい。」]は、予め定められた画面内の演技指導の表示領域に、文字列「後方中央からゆっくり前進して下さい。」を表示することを指示している。本実施形態において「演技指導」とは、例えば「驚いた気持ちで演じて下さい。」といった演技内容に関する指導のみでなく、演技に伴う動作指示など、ユーザの動作に関する様々な情報をいう。また、イベントデータ[台詞:「さる:ああ、いい朝だなあ」]は、予め定められた画面内の台詞の表示領域に、文字列「さる:ああ、いい朝だなあ」を表示することを指示している。 FIG. 8 illustrates the contents of the event sequence data DL. For example, the event data [acting guidance: “Please advance slowly from the back center”] is a character string “Please advance slowly from the back center” in the display area of the performance instruction in the predetermined screen. The display is instructed. In the present embodiment, “acting guidance” refers to various pieces of information related to the user's motion, such as not only guidance regarding the content of the performance such as “Please perform with a surprised feeling” but also operational instructions accompanying the performance. In addition, the event data [line: “Saru: Ah, good morning”] displays the character string “Saru: Ah, good morning” in a predetermined display area of the screen. I am instructing.
また、例えばイベントデータ[再生:GS0441.wav]は、音データファイル「GS0441.wav」に格納される音データの再生を指示している。本実施形態において、「GS」で始まるファイル名の音データファイルに格納される音データは、演技指導の音声を示す音データである。すなわち、イベントデータ[再生:GS0441.wav]は、演技指導「後方中央からゆっくり前進して下さい。」の音声の再生を指示している。一方、「DS」で始まるファイル名の音データファイルに格納される音データは、台詞の音声を示す音データである。すなわち、例えばイベントデータ「再生:DS0796.wav」は、台詞「ああ、いい朝だなあ」を声優等が発声した際の音声の再生を指示している。 Further, for example, event data [reproduction: GS 0441. wav] instructs reproduction of sound data stored in the sound data file “GS0441.wav”. In the present embodiment, the sound data stored in the sound data file having a file name beginning with “GS” is sound data indicating the voice of the performance instruction. That is, event data [reproduction: GS 0441. wav] instructs the reproduction of the voice of the performance instruction “Please advance slowly from the rear center”. On the other hand, the sound data stored in the sound data file having a file name starting with “DS” is sound data indicating speech of speech. That is, for example, event data “reproduction: DS0796.wav” instructs reproduction of voice when a voice actor or the like utters the line “Oh, good morning”.
図9は、イベントシーケンスデータMEの内容を例示している。例えば、イベントデータ[再生:ES0971.wav]は、音データファイル「ES0971.wav」に格納される音データ、例えば鳥のさえずり等の効果音を示す音データの再生を指示している。また、イベントデータ[さる:パン2]は、キャラクタ「さる」の台詞の音像を、「1」〜「9」で示される左右方向の位置のうち「2」で示される位置に配置することを指示している。 FIG. 9 illustrates the contents of the event sequence data ME. For example, event data [reproduction: ES0971. wav] instructs reproduction of sound data stored in the sound data file “ES0971.wav”, for example, sound data indicating sound effects such as bird's chirping. The event data [Saru: Pan 2] arranges the sound image of the dialogue of the character “Saru” at the position indicated by “2” among the left and right positions indicated by “1” to “9”. I am instructing.
図10は、イベントシーケンスデータCWの内容を例示している。例えば、イベントデータ[カメラ1:ソース:右手]は、第1のカメラ(カメラ1)として、正面に向かって右手に配置されたカメラ、すなわちビデオカメラ15bを割り当てることを指示している。また、イベントデータ[カメラ1:位置2]はカメラ1に割り当てられたビデオカメラ15bを「1」〜「9」で示される位置のうち「2」で示される位置に移動(初期配置)することを指示している。また、イベントデータ[カメラ1:表示:第3レイヤ]はカメラ1に割り当てられたビデオカメラ15bの撮像処理により得られる画像データを画面における第3レイヤに表示することを指示している。
FIG. 10 illustrates the contents of the event sequence data CW. For example, the event data [camera 1: source: right hand] instructs to allocate a camera arranged on the right hand toward the front, that is, the
また、イベントデータ[照明3:黄:0→6:7秒]は第3の照明(照明3)の色に黄を設定し、照明の明るさの程度を「0」から「6」に7秒間かけて変化させることを指示している。本実施形態において、イベントシーケンスデータCWにおける照明1〜照明6は、それぞれ照明装置17a〜照明装置17fに対応するものとする。また、イベントデータ[カメラ1:移動:→5:3秒]はカメラ1に割り当てられたビデオカメラ15bの位置を現在の位置から「5」で示される位置に3秒間かけて移動することを指示している。さらに、イベントデータ[カメラ1:ズーム:→7:5秒]は、カメラ1に割り当てられたビデオカメラ15bのズーム倍率を現在の倍率から「7」で示される倍率に5秒間かけて変更することを指示している。
In the event data [illumination 3: yellow: 0 → 6: 7 seconds], the color of the third illumination (illumination 3) is set to yellow, and the brightness level of the illumination is changed from “0” to “6”. It is instructed to change over a second. In the present embodiment, the
上記のように、イベントシーケンスデータCWは、ビデオカメラ15の位置、方向およびズーム倍率変更等の各種動作を指示するとともに、照明装置17の各種動作を指示する。イベントシーケンスデータCWによるそれらの指示は、同時にバックグラウンドイメージおよびキャラクタイメージに対する補正処理の指示を意味している。例えば、照明装置17に対する色の変更を指示するイベントデータは、同時にバックグラウンドイメージおよびキャラクタイメージにおける色補正を指示している。同様に、照明装置17に対する明るさの変更を指示するイベントデータは、同時にバックグラウンドイメージおよびキャラクタイメージにおける明るさ補正を指示している。
As described above, the event sequence data CW instructs various operations such as changing the position and direction of the
また、ビデオカメラ15の位置や方向の変更を指示するイベントデータは、同時に、バックグラウンドイメージを異なる視点から見た同じ画像を示すように変形する処理を指示している。また、ビデオカメラ15のズーム倍率やフォーカスの程度の変更を指示するイベントデータは、同時に、バックグラウンドイメージおよびキャラクタイメージに拡大率や鮮明さの変更処理を加えることを指示している。その際、例えばビデオカメラ15のフォーカスを強くするイベントデータは、ビデオカメラ15の撮像対象より奥行き方向においてより奥に位置するバックグラウンドイメージのフォーカスを弱くすると同時に、ビデオカメラ15の撮像対象と奥行き方向において同程度の位置に配されるキャラクタイメージのフォーカスを強くすることを意味する。以上がイベントシーケンスデータ群に含まれる各種イベントシーケンスデータである。
In addition, the event data for instructing the change of the position and direction of the
ストーリデータ1010(図3参照)に含まれるソースデータ群は、上述した各種イベントシーケンスデータにより再生等の指示がなされる静止画データ、動画データ、音データおよびモデリングデータ(以下、これらを総称して「ソースデータ」と呼ぶ)を格納する各種ファイルの集合である。 The source data group included in the story data 1010 (see FIG. 3) is still image data, moving image data, sound data, and modeling data (hereinafter collectively referred to as reproduction data) that are instructed to be reproduced by the various event sequence data described above. It is a set of various files that store “source data”.
ストーリデータ1010に含まれるアレンジデータは、ストーリにおいて用いられるべきイベントシーケンスデータのファイル名を示すデータである。本実施形態において、ユーザは複数のストーリの中から好みのものを選択した後、さらに、選択したストーリにおいて用いられる背景音楽、背景画像、台詞等を複数の脚色(以下、「アレンジ」と呼ぶ)の中から各々選択することができる。そのため、アレンジデータは、イベントシーケンスデータの種別の各々について、選択可能なイベントシーケンスデータのファイル名を複数、含んでいる。 Arrangement data included in the story data 1010 is data indicating a file name of event sequence data to be used in the story. In the present embodiment, after the user selects a favorite one from a plurality of stories, the background music, background image, dialogue, etc. used in the selected story are further provided with a plurality of dramas (hereinafter referred to as “arrange”). Each can be selected from the following. Therefore, the arrangement data includes a plurality of selectable event sequence data file names for each type of event sequence data.
図11は、アレンジデータの内容をストーリにおける時間軸を横方向にとって模式的に示した図である。図11における縦線はストーリに含まれる各シーンの区切りを示しており、各縦線の上部に示される[0h03m17s]等のデータは、ストーリ全体の開始タイミングを基準とした場合の各区切りのタイミングを示している。また、それらのタイミングを示すデータの間に示される「シーン1:出会い」等は、シーン名称を示すデータである。 FIG. 11 is a diagram schematically showing the contents of the arrangement data with the time axis in the story in the horizontal direction. The vertical lines in FIG. 11 indicate the breaks of each scene included in the story, and the data such as [0h03m17s] shown at the top of each vertical line is the timing of each break when the start timing of the entire story is used as a reference. Is shown. “Scene 1: Encounter” or the like shown between the data indicating the timings is data indicating the scene name.
図11において、各データ行は、イベントシーケンスデータの種別の各々に対応するデータを示している。例えば、「BS」で示されるデータ行は、イベントシーケンスデータBSに関しユーザにより選択可能なイベントシーケンスデータを示すデータである。各データ行は、各シーンについて、イベントシーケンスデータのファイル名にアレンジ名称を対応付けたデータを複数、含んでいる。例えば、図11に例示のアレンジデータは、シーン1において用いられるイベントシーケンスデータBSとして、ユーザがアレンジ名称「爽やか」に対応付けられた「BS0814.ivt」、アレンジ名称「ノスタルジック」に対応付けられた「BS0571.ivt」等の中からいずれかを選択可能であることを示している。
In FIG. 11, each data row indicates data corresponding to each type of event sequence data. For example, the data row indicated by “BS” is data indicating event sequence data selectable by the user with respect to the event sequence data BS. Each data row includes a plurality of data in which the arrangement name is associated with the file name of the event sequence data for each scene. For example, the arrangement data illustrated in FIG. 11 is associated with “BS0814.ivt” in which the user is associated with the arrangement name “fresh” and the arrangement name “nostalgic” as the event sequence data BS used in the
ところで、図11において、例えばイベントシーケンスデータBSについては、シーン毎に異なるアレンジ名称の組合せが示されている。従って、ユーザはイベントシーケンスデータBSについて、シーン毎に異なるアレンジを選択することができる。一方、例えばイベントシーケンスデータBIについては、各シーンに同じアレンジ名称の組合せが示されている。従って、ユーザはイベントシーケンスデータBIについては、ストーリ全体を通じて1つのアレンジを選択することになる。 In FIG. 11, for example, for event sequence data BS, combinations of arrangement names that differ for each scene are shown. Therefore, the user can select a different arrangement for the event sequence data BS for each scene. On the other hand, for the event sequence data BI, for example, the same arrangement name combination is shown for each scene. Therefore, the user selects one arrangement for the event sequence data BI throughout the entire story.
また、図11において、例えばイベントシーケンスデータMEとしては、イベントシーケンスデータDLについて選択可能なアレンジ名称の各々に関し、複数のアレンジ名称が示されている。従って、ユーザはイベントシーケンスデータDLに関しいずれのアレンジを選択したかにより、イベントシーケンスデータMEに関し選択可能なアレンジの組合せが変化することになる。後述するように、ユーザにより各種イベントシーケンスデータの各々について好みのアレンジ名称が選択されることにより、選択されたアレンジ名称に対応付けられたイベントシーケンスデータが特定され、そのように特定されたイベントシーケンスデータがビデオ生成システム1において用いられることになる。以上がアレンジデータである。
In FIG. 11, for example, as the event sequence data ME, a plurality of arrangement names are shown for each arrangement name that can be selected for the event sequence data DL. Therefore, the combination of arrangements that can be selected for the event sequence data ME changes depending on which arrangement the user has selected for the event sequence data DL. As will be described later, when the user selects a favorite arrangement name for each of the various event sequence data, event sequence data associated with the selected arrangement name is specified, and the event sequence thus specified is specified. Data will be used in the
図2に戻り、ビデオ生成装置10の構成説明を続ける。入出力I/F102は、ビデオ生成装置10に含まれる記憶部101および制御部103がコントローラ11、マイク12、アンプ13、ビデオカメラ15、カメラ移動装置16、照明装置17、ディスプレイ18、超音波受信器19、メディアドライブ20およびインターネット21との間でアナログ信号およびデジタル信号の入出力を行うためのインタフェースである。また、入出力I/F102はA/D(Analog to Digital)コンバータおよびD/A(Digital to Analog)コンバータを備えており、必要に応じてアナログ信号とデジタル信号との間の変換を行う。
Returning to FIG. 2, the description of the configuration of the
制御部103は、ストーリデータ1010に従い、バックグラウンドサウンド、効果音、台詞のお手本音声および演技指導の音声を再生し、それらの再生音およびマイク12により拾音された音を示す音声データに各種加工処理を施し、その結果得られる音データをアンプ13に出力する。また、制御部103は、ストーリデータ1010に従い、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御を行う。また、制御部103は、ストーリデータ1010に従い、バックグラウンドイメージおよびキャラクタイメージを示す画像データを生成し、生成した画像データとビデオカメラ15により撮像された画像を示す画像データに各種加工処理を施し、その結果得られる画像データをディスプレイ18に出力する。さらに、制御部103は、加工処理を施して得られる音データおよび画像データをビデオデータとして記憶部101に記憶させる。
In accordance with the story data 1010, the
制御部103の構成部は、音データの処理に関する音データブロック201、画像データの処理に関する画像データブロック202、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御に関する動作制御ブロック203、イベントシーケンスデータに従い音データブロック201、画像データブロック202および動作制御ブロック203に対しイベントデータの送信を行うイベントデータ再生部204、超音波受信器19から入力される信号に従いマイク12の各々の位置を算出するマイク位置算出部205およびユーザに対する課金に関する処理を行う課金データ処理部206に区分される。また、制御部103は発振器(図示略)を備えており、制御部103の構成部の処理は発振器により生成されるクロック信号に基づき同期がとられている。
The configuration unit of the
音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い様々な楽音を示す音データを出力する音源部2011と、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群(図3参照)に含まれる音データの再生を行う音データ再生部2012を備えている。また、音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い、マイク12により拾音された音を示す音データと音源部2011および音データ再生部2012から送信される音データの各々に各種エフェクト処理等の加工処理を施した後、それらをミキシング処理して得られる音データをアンプ13に対し出力する音データ加工処理部2013を備えている。
The sound data block 201 includes a
画像データブロック202は、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群に含まれる動画データを再生する動画データ再生部2021と、イベントデータ再生部204から送信されるイベントデータに従い台詞および演技指導の文字表示画面を示す画像データを順次生成する文字画面生成部2022と、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群に含まれるモデリングデータに基づきキャラクタイメージを示す画像データを順次生成するレンダリング処理部2023と、ビデオカメラ15から入力される画像データから特定部分のみを選択するトリミング処理部2024を備えている。
The image data block 202 includes a moving image
レンダリング処理部2023により行われるモデリングデータに基づく画像データの生成処理は、一般にレンダリング処理と呼ばれる。レンダリング処理においては、三次元仮想空間内において、モデリングデータにより示される形状および素材を備えるパーツに対し1以上の光源から光を投じた際に所定位置の視点から見える画像を示す画像データが、シミュレーション演算により生成される。レンダリング処理部2023は、そのようなレンダリング処理により生成した画像データを画像データ加工処理部2025に送信する。
Image data generation processing based on modeling data performed by the
トリミング処理部2024はまず、ビデオカメラ15から入力される画像データから、ユーザの画像部分を選択する処理を行う。具体的には、トリミング処理部2024は、ビデオカメラ15から入力される画像データのうち外周位置のデータをブース(図1参照)の壁の色を示すデータと判断し、そのデータおよびそのデータに近似するデータが、画像の外周部分から中心に向かい連続する範囲を特定する。そのようにして特定される領域はブースの壁を示す背景領域である。トリミング処理部2024は、例えば背景領域のデータを削除する。その結果、ユーザの画像部分のみを取り出した画像を示す画像データ(以下、「ユーザ画像データ」と呼ぶ)が生成される。
The trimming
トリミング処理部2024は、さらに、ユーザ画像データからマーカの画像部分を選択する処理を行う。マーカとは、ユーザの画像における各部位の位置をビデオ生成装置10に特定させるために、ユーザが手足等に装着する特定色のブレスレット、アンクレット等である。マーカには、ビデオ生成装置10がユーザの衣服等と混同しないように、またブースの照明が暗い場合においても認識可能なように、例えば蛍光色の蓄光塗料が塗布されている。また、ビデオ生成装置10がユーザの手足等のいずれに装着されたマーカであるかを認識可能なように、例えば右手首のマーカは黄色、左手首のマーカはピンク色等、各部位用のマーカ色が定められている。トリミング処理部2024は、ユーザ画像データから、予め登録されたマーカ色と同色もしくは近似色を示すデータを抽出する。そのように抽出されたデータは、マーカ部分を示す画像データ(以下、「マーカ画像データ」と呼ぶ)である。
The trimming
画像データブロック202は、さらに、画像データ加工処理部2025を備えている。画像データ加工処理部2025は、イベントデータ再生部204から送信されるイベントデータに従い、動画データ再生部2021、文字画面生成部2022およびレンダリング処理部2023の各々から送信される画像データ、そしてストーリデータ1010のソースデータ群に含まれる静止画データに各種エフェクト処理等の加工処理を施した後、それらを合成処理して得られる画像データをディスプレイ18に送信する。画像の合成処理には、例えば、ある画像に別の画像をスーパーインポーズする処理や、ある画像から別の画像が透けて見えるように両画像を合成する処理が含まれる。
The image data block 202 further includes an image
動作制御ブロック203は、イベントデータ再生部204から送信されるイベントデータに従い、ビデオカメラ15、カメラ移動装置16および照明装置17の各々の動作制御を行うカメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。
The
イベントデータ再生部204は、ストーリデータ1010に含まれるアレンジデータにより示されるイベントシーケンスデータのうち、ユーザにより選択されたアレンジ名称に対応するものを用いて、イベントシーケンスデータに含まれるタイミングデータにより示されるタイミングで、各々のイベントデータを、その内容に応じて以下のように各構成部に送信する。
The event
(a)イベントシーケンスデータBSに含まれる楽音の発音を指示するイベントデータ→音源部2011。
(b)イベントシーケンスデータBS、イベントシーケンスデータDLおよびイベントシーケンスデータMEに含まれる音データの再生を指示するイベントデータ→音データ再生部2012。
(c)イベントシーケンスデータBSおよびイベントシーケンスデータMEに含まれる音に対するエフェクト処理を指示するイベントデータ→音データ加工処理部2013。
(d)イベントシーケンスデータBIに含まれる動画データの再生を指示するイベントデータ→動画データ再生部2021。
(e)イベントシーケンスデータDLに含まれる文字列の表示を指示するイベントデータ→文字画面生成部2022。
(f)イベントシーケンスデータCIに含まれるモデリングデータの指定および各パーツデータの位置、方向を指示するイベントシーケンスデータ→レンダリング処理部2023。
(g)イベントシーケンスデータBI、イベントシーケンスデータCIに含まれるレイヤ指定に関するイベントデータ、イベントシーケンスデータBIに含まれる静止画表示を指示するイベントデータ、イベントシーケンスデータCIおよびイベントシーケンスデータCWに含まれる画像に対するエフェクト処理、カメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータ→画像データ加工処理部2025。
(h)イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータ→レンダリング処理部2023。
(i)イベントシーケンスデータCWに含まれるカメラ動作制御を指示するイベントデータ→カメラ動作制御部2031。
(j)イベントシーケンスデータCWに含まれるカメラ位置を指示するイベントデータ→移動動作制御部2032。
(k)イベントシーケンスデータCWに含まれる照明装置動作制御を指示するイベントデータ→照明動作制御部2033。
(A) Event data instructing sound generation included in event sequence data BS → sound
(B) Event data → sound
(C) Event data → sound
(D) Event data → video
(E) Event data → character
(F) Event sequence data instructing designation of modeling data included in the event sequence data CI and the position and direction of each part data →
(G) Event sequence data BI, event data related to layer designation included in event sequence data CI, event data instructing still image display included in event sequence data BI, image included in event sequence data CI and event sequence data CW Event data for instructing effect processing, camera operation control, camera position, and illumination device operation control for image
(H) Event data indicating the camera operation control and camera position included in the event sequence data CW → the
(I) Event data instructing camera operation control included in the event sequence data CW → camera
(J) Event data indicating the camera position included in the event sequence data CW → the movement
(K) Event data instructing lighting device operation control included in the event sequence data CW → lighting
上記のように、イベントシーケンスデータCWに含まれるカメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータは、それぞれカメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033に送信されるとともに、画像データ加工処理部2025にも送信される。これは、画像データ加工処理部2025が、カメラのズーム倍率、フォーカスの強さ、カメラ位置、カメラ方向、照明の色、照明の強さ等に応じて、バックグラウンドイメージやキャラクタイメージに対し、サイズ変更処理、ぼかし処理、変形処理、色調整処理、明るさ調整処理等を行うためである。また、イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータは、レンダリング処理部2023にも送信される。これは、レンダリング処理部2023が、カメラのズーム倍率、カメラ位置およびカメラ方向に照らし、トリミング処理部2024から受信する画像データのいずれの部分がいずれのユーザの画像を示すものであるかを特定するためである。
As described above, the event data instructing the camera operation control, the camera position, and the illumination device operation control included in the event sequence data CW is transmitted to the camera
マイク位置算出部205は、ブース(図1参照)の上方に配置された超音波受信器19a〜dの各々から超音波を示す音データを受信する。超音波受信器19a〜dにより拾音される超音波は、マイク12aおよびマイク12bの各々に備えられた超音波発生器121aおよび超音波発生器121bから断続的に発せられる超音波である。上述したように、超音波発生器121aおよび超音波発生器121bの各々から発せられる超音波は互いに周波数が異なっており、マイク位置算出部205は、超音波受信器19a〜dの各々から、2つの異なる周波数の超音波が混合した音を示す音データを受信する。そこでマイク位置算出部205は、2つの各々の周波数に関し、その周波数を含み他の周波数を含まない周波数帯の成分のみを通過させるバンドパスフィルタで超音波受信器19から受信した音データを濾波する。そのような濾波処理により得られる音を示す音データは、それぞれ、超音波発生器121aから発せられた超音波を示すデータおよび超音波発生器121bから発せられた超音波を示すデータである。
The microphone
マイク位置算出部205は、超音波受信器19a〜dの各々から受信した音データに関し、上記の濾波処理を行うことにより、以下のように8組のデータを生成する。
(a)超音波発生器121aから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データaa」と呼ぶ)。
(b)超音波発生器121aから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データab」と呼ぶ)。
(c)超音波発生器121aから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データac」と呼ぶ)。
(d)超音波発生器121aから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データad」と呼ぶ)。
(e)超音波発生器121bから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データba」と呼ぶ)。
(f)超音波発生器121bから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データbb」と呼ぶ)。
(g)超音波発生器121bから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データbc」と呼ぶ)。
(h)超音波発生器121bから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データbd」と呼ぶ)。
The microphone
(A) Data indicating the ultrasonic wave emitted from the
(B) Data indicating the ultrasonic wave emitted from the
(C) Data indicating the ultrasonic wave emitted from the
(D) Data indicating an ultrasonic wave emitted from the
(E) Data indicating the ultrasonic wave emitted from the
(F) Data indicating the ultrasonic wave emitted from the
(G) Data indicating the ultrasonic wave emitted from the
(H) Data indicating the ultrasonic wave emitted from the
超音波データaa、ab、acおよびadは、同じ超音波を示すデータであるが、マイク12aに設けられた超音波発生器121aと、超音波受信器19a〜dの各々との距離が異なるため、マイク位置算出部205がそれらを受信するタイミングが異なる。超音波データba、bb、bcおよびbdについても同様である。マイク位置算出部205は、このタイミングの差異に基づき、マイク12aおよびbのブースにおける位置を算出する。マイク12aおよびbのブースにおける位置の算出方法は同じであるため、以下、マイク12aの位置を算出する場合を例として、その算出方法を例示する。
The ultrasonic data aa, ab, ac, and ad are data indicating the same ultrasonic wave, but the distance between the
図12はブースを上方から見た図である。図12においては、超音波受信器19a〜dの各々の位置が点A(0,0,r)、点B(0,q,r)、点C(p,q,r)および点D(p,0、r)として示されている。また、マイク12aの位置が点X(x,y,z)として示されている。ここで、p、qおよびrはブースの幅、奥行きおよび高さを示す定数(メートル)である。一方、x、yおよびzはマイク12aの座標を示す変数(メートル)である。ここで、以下の方程式が成立する。ただし、tA、tB、tCおよびtDは、それぞれ点Xから発せられた音が点A〜Dの各々に達するまでに要する時間(秒)を示し、Sは空気中を音が伝播する速さ(メートル/秒)を示す。
ところで、既に述べたように、超音波発生器121は、例えば0.5秒間、超音波を発し続けた後、1秒間、超音波を発しない。従って、マイク位置算出部205は、超音波受信器19a〜dのいずれからも超音波データを受け取らない期間が約1秒間続いた後、超音波受信器19a〜dの各々から約0.5秒間の超音波データaa〜adを受信する。そのように受信される超音波データは超音波発生器121aから発せられた同じ超音波を示すデータである。マイク位置算出部205は、例えば超音波データaaの値の立ち上がりタイミング、すなわち超音波データaaの値がノイズ成分のレベルを上回る所定の値を下から上に横切って変化する先頭データの受信タイミングを基準とし、超音波データab〜adの各々の立ち上がりタイミングまでの時間(秒)をt1、t2およびt3として算出する。
By the way, as already described, the
例えば、点Xが図12に示される位置にある場合、以下の方程式が成立する。
式1〜式4を、式5〜式7に代入することにより、3つの式からなる3元2次連立方程式が得られる。ここで、x、yおよびzは正値をとるので、マイク位置算出部205はこの連立方程式を解くことにより、x、yおよびzを一意に算出することができる。以上が、マイク位置算出部205がマイク12の位置を算出する方法である。
By substituting
ただし、マイク位置算出部205がマイク12の位置を算出する方法は上記のものに限られない。例えば、マイク12の高さ方向の位置が無視できる程度に小さい場合には、二次元平面におけるマイク12の位置、すなわちxおよびyのみを求めるようにしてもよい。その場合、変数が2つとなるので、超音波受信器19の数は3つ以上であればよい。また、マイク12に超音波発生器121を設ける代わりに、図12の超音波受信器19a〜dの位置に超音波発生器121を配置し、マイク12に超音波受信器19を設け、マイク位置算出部205はマイク12から超音波データを受信するように構成することにより、上記と類似の算出方法によりマイク位置算出部205がマイク12の位置を算出するようにしてもよい。
However, the method by which the microphone
マイク位置算出部205は、上記のように算出したマイク12aおよびbの各々の位置を示す座標データXa(xa,ya,za)およびXb(xb,yb,zb)(以下、「マイク座標データ」と呼ぶ)をレンダリング処理部2023に順次送信する。マイク座標データは、レンダリング処理部2023において、トリミング処理部2024から送信される画像データのいずれの部分がいずれのユーザを示すデータであるかを特定するために用いられる。
The microphone
課金データ処理部206は、イベントデータ再生部204によるイベントデータの送信処理に基づき、ビデオ生成システム1の利用に対する課金額の算出および算出した課金額の決済の依頼処理を行う。その具体的内容については、下記の動作説明において併せて説明する。
The billing
[1.2.ビデオ生成システムの動作]
上記の構成を備えるビデオ生成システム1を用いて、ユーザは自分が登場人物として参加する短編映画の撮影を行い、その結果をビデオデータとして得ることができる。以下、ビデオ生成システム1の動作を説明する。以下の説明において、同時に2名のユーザがビデオ生成システム1を利用するものとするが、同時に利用可能なユーザの数はビデオ生成システム1が備えるマイク12の数およびストーリデータ1010の管理データにおいて示されるキャラクタ数のうち、小さい方を上限として自由に選択可能である。
[1.2. Operation of the video generation system]
Using the
ユーザは、ビデオ生成システム1の利用に先立ち、マイク12を自分の胸元に装着する。また、ユーザは、両手首および両足首に、各々指定された色のマーカを装着する。その後、ユーザはコントローラ11を用いて、ビデオ生成装置10に対し動作の開始を指示する。
Prior to using the
[1.2.1.ユーザによる選択操作]
図13、図14および図15は、ユーザがビデオ生成システム1を利用する際にディスプレイ18に表示される画面を例示している。ユーザによりビデオ生成装置10に対し動作の開始の指示が行われると、ビデオ生成装置10の制御部103は、まず記憶部101に記憶されているストーリデータ1010(図3参照)の各々に含まれる管理データ(図4参照)からストーリデータ名称を読み出し、ディスプレイ18にストーリの選択画面(図13(a))を表示させる。
[1.2.1. Selection operation by the user]
FIGS. 13, 14, and 15 illustrate screens displayed on the
ストーリの選択画面において、ユーザがコントローラ11を用いてストーリの選択指示を行うと、ビデオ生成装置10は、ユーザに選択されたストーリデータ1010に含まれるアレンジデータを読み出し、イベントシーケンスデータの種別の各々について、アレンジの選択画面(図13(b)〜(g))を順次、表示させる。
When the user gives a story selection instruction using the
上述したストーリおよびアレンジの選択画面において、ユーザがコントローラ11を用いて選択操作を行うと、制御部103はその選択操作に応じて、選択されたストーリデータ名称およびアレンジ名称を示す選択アレンジデータ、例えば「さるカニ合戦:ノスタルジック:ファンタジー・・・」を生成し、生成した選択アレンジデータを記憶部101に記憶させる。
When the user performs a selection operation using the
続いて、ビデオ生成装置10は管理データに含まれるキャラクタ属性を読み出し、ディスプレイ18にキャラクタの選択画面(図14(a))を表示させる。キャラクタの選択画面において、ユーザはマイク12aを装着する人のキャラクタおよびマイク12bを装着する人のキャラクタを、それぞれマイクaおよびマイクbに対応するキャラクタとして選択する。また、ユーザは各々のキャラクタに関し、そのキャラクタをどのような表示方法(以下、「キャラクタモード」と呼ぶ)で表示させるかを選択する。キャラクタモードには、ユーザの全身画像をキャラクタの画像として用いる「実物」、キャラクタイメージにユーザの顔画像をはめ込んだ画像に対しユーザの動きに応じた変化を加えたものを用いる「着ぐるみ」およびユーザの画像は用いずにキャラクタイメージの画像に対しユーザの動きに応じた変化を加えたものを用いる「イメージ」のいずれかを選択する。
Subsequently, the
キャラクタの選択画面において、ユーザがコントローラ11を用いて各マイクに対応するキャラクタの選択操作を行うと、制御部103はその選択操作に応じて、マイクとキャラクタの対応を示すキャラクタ対応データ、例えば「マイクa:さる」、「マイクb:母ガニ」を生成し、生成したキャラクタ対応データを記憶部101に記憶させる。同様に、キャラクタの選択画面において、ユーザがコントローラ11を用いてキャラクタモードの選択操作を行うと、制御部103はその選択操作に応じて、選択されたキャラクタモードを示すキャラクタモードデータを生成し、生成したキャラクタモードデータを記憶部101に記憶させる。
When the user performs a selection operation of a character corresponding to each microphone using the
続いて、ビデオ生成装置10はディスプレイ18に課金方法の選択画面(図14(b))を表示させる。課金方法の選択画面は、課金額の算出方法のリストを含んでいる。課金額の算出方法としては、例えばイベントデータの再生が行われるシーンの数に応じて課金する「300円/シーン」、イベントデータの再生時間に応じて課金する「150円/5分間」、基本料金とイベントデータの再生が行われるシーンの数の組合せに応じて課金する「1500円+300円/追加シーン」等、様々なものが考えられる。
Subsequently, the
課金方法の選択画面において、ユーザがコントローラ11を用いて課金方法の選択操作を行うと、制御部103はその選択操作に応じて、選択された課金方法を示す課金方法データを生成し、生成した課金方法データを記憶部101に記憶させる。
When the user performs a charging method selection operation using the
続いて、ビデオ生成装置10はディスプレイ18にイベントデータの再生指示画面(図14(c))を表示させる。再生指示画面は、シーン名称とそのシーンのテイク(撮影)の完了もしくは未完了を示すリストを含んでいる。ユーザは再生指示画面において、イベントデータの再生を希望するシーンを選択する。また、再生指示画面において、ユーザは「練習モード」もしくは「本番モード」のいずれかのモード(以下、「再生モード」と呼ぶ)を選択することができる。「練習モード」とは、演技指導および台詞のお手本の音声が再生されるとともに、演技指導および台詞の文字とイベントシーケンスデータCIに従ったキャラクタイメージの動画が表示される再生モードである。一方、「本番モード」とは、演技指導およびユーザに選択されたキャラクタに関する台詞のお手本の音声は再生されず、ユーザの音声が加工処理等されて発音されるとともに、演技指導および台詞の文字と、ユーザの画像もしくはユーザの動きに応じて動きの変化するキャラクタイメージが表示される再生モードである。
Subsequently, the
再生指示画面において、ユーザがコントローラ11を用いていずれかのシーン名称を選択すると、制御部103はその選択操作に応じて、選択されたシーン名称を示す選択シーンデータを生成し、生成した選択シーンデータを記憶部101に記憶させる。同様に、ユーザがコントローラ11を用いていずれかの再生モードのボタンを選択すると、制御部103はその選択操作に応じて、選択された再生モードを示す再生モードデータを生成し、生成した再生モードデータを記憶部101に記憶させる。
When the user selects any scene name using the
ユーザがコントローラ11を用いて、「練習モード」もしくは「本番モード」のいずれかを選択する操作を行うと、その操作に応じて、まず、ビデオ生成装置10の課金データ処理部206は、後述する課金額の算出に用いるため、その時点の時刻を示す再生開始時刻データを生成し、生成した再生開始時刻データを記憶部101に記憶させる。また、課金データ処理部206は、同じく課金額の算出に用いるため、再生されたシーンの数を記録するための再生回数カウンタを記憶部101に生成し、再生回数カウンタに「1」を設定する。
When the user performs an operation of selecting either “practice mode” or “production mode” using the
続いて、イベントデータ再生部204は、記憶部101に記憶されている選択アレンジデータおよび選択シーンデータに従い、ユーザにより選択されたストーリ名称に対応するストーリデータ1010(図3参照)に含まれるアレンジデータ(図11参照)に基づき、ユーザにより選択されたアレンジ名称およびシーン名称に対応する各種イベントシーケンスデータを特定する。
Subsequently, the event
例えば、図11に例示のアレンジデータに従う場合、ユーザにより「シーン1:出会い」が選択され、さらにバックグラウンドサウンドのアレンジ名称「爽やか」、バックグラウンドイメージのアレンジ名称「劇画風」、キャラクタイメージのアレンジ名称「ファンシー」、ダイアログのアレンジ名称「舞台劇風」、マイクエフェクトのアレンジ名称「非現実的」そしてカメラワークのアレンジ名称「技巧的」がそれぞれ選択された場合、イベントデータ再生部204は「BS0814.ivt」、「BI0795.ivt」、「CI0801.ivt」、「DL0685.ivt」、「ME0150.ivt」および「CW0401.ivt」を用いるべきイベントシーケンスデータのファイルとして特定する。
For example, when the arrangement data illustrated in FIG. 11 is followed, “scene 1: encounter” is selected by the user, the background sound arrangement name “fresh”, the background image arrangement name “dramatic”, and the character image arrangement. When the name “fancy”, the dialog arrangement name “stage play style”, the microphone effect arrangement name “unreal”, and the camera work arrangement name “technical” are selected, the event
イベントデータ再生部204は、上記のようにイベントシーケンスデータのファイルを特定すると、特定したファイルに格納されているイベントシーケンスデータに従い、イベントデータの再生を行う。すなわち、イベントデータ再生部204は、各々のイベントシーケンスデータに含まれるイベントデータを、対応付けられているタイミングデータにより示されるタイミングで、そのイベントデータの種別に応じた構成部に対し送信する。各構成部は、イベントデータ再生部204から受信したイベントデータに従い、各種処理を行う。ただし、イベントデータ再生部204によるイベントデータの再生処理およびイベントデータを受信した際の各構成部の動作は、再生モードが「練習モード」、「本番モード」のいずれであるかにより一部異なる。従って、以下、再生モードの各々について、イベントデータが再生される際のビデオ生成システム1の動作を説明する。
When the event
[1.2.2.イベントデータの再生(練習モード)]
まず、記憶部101に再生モードデータ「練習モード」が記憶されている場合、イベントデータ再生部204は以下のようにイベントデータを音データブロック201に対し送信する。
(a)イベントシーケンスデータBSに含まれる楽音の発音を指示するイベントデータ→音源部2011。
(b)イベントシーケンスデータBS、イベントシーケンスデータDLおよびイベントシーケンスデータMEに含まれる音データの再生を指示するイベントデータ→音データ再生部2012。
(c)イベントシーケンスデータBSおよびイベントシーケンスデータMEに含まれる音に対するエフェクト処理を指示するイベントデータ→音データ加工処理部2013。
[1.2.2. Event data playback (practice mode)]
First, when playback mode data “practice mode” is stored in the storage unit 101, the event
(A) Event data instructing sound generation included in event sequence data BS → sound
(B) Event data → sound
(C) Event data → sound
音源部2011は、上記(a)のイベントデータに従い、バックグラウンドサウンドを構成する楽音の再生を行う。また、音データ再生部2012は、上記(b)のイベントデータに従い、バックグラウンドサウンドを構成する楽音以外の音の再生、効果音の再生、演技指導の音声の再生および台詞のお手本音声の再生を行う。音源部2011および音データ再生部2012は、再生を指示したイベントデータにチャンネル番号が含まれる場合、再生した音データにそのチャンネル番号を付加する。また、音データ再生部2012は、再生を指示したイベントデータにキャラクタ名称が含まれる場合、再生した音データにそのキャラクタ名称を付加する。そのように生成された音データは、音源部2011および音データ再生部2012から音データ加工処理部2013に送信される。
The
音データ加工処理部2013は、音源部2011および音データ再生部2012から受信した音データに対し、上記(c)のイベントデータに従い、ディレイ等の付加、パンの変更等の各種加工処理を行う。音データ加工処理部2013は、チャンネル番号を含むイベントデータを受信した場合、そのチャンネル番号の付加された音データに対し当該イベントデータに従った加工処理を行う。また、音データ加工処理部2013は、キャラクタ名称を含むイベントデータを受信した場合、そのキャラクタ名称の付加された音データに対し当該イベントデータに従った加工処理を行う。イベントデータに従い、必要に応じて加工処理の施された音データは、音データ加工処理部2013からアンプ13に出力され、アンプ13により増幅された後、スピーカ14により音に変換され発音される。
The sound
上記の処理と並行して、イベントデータ再生部204は以下のようにイベントデータを画像データブロック202に対し送信する。
(d)イベントシーケンスデータBIに含まれる動画データの再生を指示するイベントデータ→動画データ再生部2021。
(e)イベントシーケンスデータDLに含まれる文字列の表示を指示するイベントデータ→文字画面生成部2022。
(f)イベントシーケンスデータCIに含まれるモデリングデータの指定および各パーツデータの位置、方向を指示するイベントシーケンスデータ→レンダリング処理部2023。
(g)イベントシーケンスデータBI、イベントシーケンスデータCIに含まれるレイヤ指定に関するイベントデータ、イベントシーケンスデータBIに含まれる静止画表示を指示するイベントデータ、イベントシーケンスデータCIおよびイベントシーケンスデータCWに含まれる画像に対するエフェクト処理、カメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータ→画像データ加工処理部2025。
In parallel with the above processing, the event
(D) Event data → video
(E) Event data → character
(F) Event sequence data instructing designation of modeling data included in the event sequence data CI and the position and direction of each part data →
(G) Event sequence data BI, event data related to layer designation included in event sequence data CI, event data instructing still image display included in event sequence data BI, image included in event sequence data CI and event sequence data CW Event data for instructing effect processing, camera operation control, camera position, and illumination device operation control for image
動画データ再生部2021は、上記(d)のイベントデータに従い、バックグラウンドイメージを構成する画像の再生を行い、再生した画像データに対し再生を指示したイベントデータに含まれるレイヤ番号を付加した後、画像データ加工処理部2025に送信する。また、文字画面生成部2022は、上記(e)のイベントデータに従い、演技指導および台詞の文字の表示画面を示す画像データを生成し、生成した画像データを画像データ加工処理部2025に送信する。また、レンダリング処理部2023は、上記(f)のイベントデータに従い、キャラクタイメージを示す画像データを生成し、生成した画像データに対し生成を指示したイベントデータに含まれるキャラクタ名称を付加した後、画像データ加工処理部2025に送信する。
In accordance with the event data of (d) above, the moving image
画像データ加工処理部2025は、ストーリデータ1010のソースデータ群に含まれる静止画データに従った静止画表示を指示するイベントデータを受信した場合、そのイベントデータにより指示される静止画データを記憶部101から読み出す。また、画像データ加工処理部2025は、レイヤ番号を含むエフェクト処理を指示するイベントデータを受信した場合、そのレイヤ番号の付加された画像データに対し当該イベントデータに従った加工処理を行う。また、画像データ加工処理部2025は、キャラクタ名称を含むエフェクト処理を指示するイベントデータを受信した場合、そのキャラクタ名称の付加された画像データに対し当該イベントデータに従った加工処理を行う。
When the image
さらに、画像データ加工処理部2025は、イベントデータ再生部204からカメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータを受信すると、動画データ再生部2021およびレンダリング処理部2023から受信した画像データおよび記憶部101から読み出した静止画データの各々に対し、イベントデータの内容に応じたサイズ変更処理、ぼかし処理、変形処理、色調整処理、明るさ調整処理等を行う。例えば、ズーム倍率の変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データのサイズを拡大もしくは縮小する。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの拡大縮小率を大きくし、奥のレイヤに配置された画像データの拡大縮小率を小さくすることにより、実際にビデオカメラのズーム倍率を変化させた場合の画像を擬似的に生成する。
Furthermore, when the image
また、フォーカスの強さの変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データにぼかし処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データのぼかし処理の程度と奥のレイヤに配置された画像データのぼかし処理の程度を変化させることにより、実際にビデオカメラのフォーカスを変化させた場合の画像を擬似的に生成する。また、カメラ位置の変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データに変形処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの変形率を大きくし、奥のレイヤに配置された画像データの変形率を小さくすることにより、実際にビデオカメラを移動させた場合の画像を擬似的に生成する。
Further, the image
また、照明の色および明るさの変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データに色調や明るさの変更処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの色調や明るさの変更の程度を大きくし、奥のレイヤに配置された画像データの色調や明るさの変更の程度を小さくすることにより、実際に照明の色や明るさを変化させた場合の画像を擬似的に生成する。
In addition, the image
画像データ加工処理部2025は、以上のように各種加工処理を施して得られる画像データを、配置されたレイヤ番号の順に従いスーパーインポーズし、最後に文字画面生成部2022から受信した画像データをスーパーインポーズして、1つの画像データを合成する。画像データ加工処理部2025は合成により得られた画像データをディスプレイ18に送信する。ディスプレイ18は受信した画像データに従い、バックグラウンドイメージ、キャラクタイメージ、演技指導および台詞文字を含む画面を表示する。図14(d)は、練習モードにおいてディスプレイ18に表示される画面を例示している。
The image
上記のようなビデオ生成システム1の動作により、イベントデータ再生部204によるイベントデータの再生が行われる間、ユーザは台詞のお手本音声を聞きながら台詞の練習をし、またディスプレイ18に表示されるキャラクタイメージの動きを見ながら動作の練習を行う。その際、ユーザは演技指導の音声を参考とし、自分の動作や表情、台詞まわし等を工夫することができる。
While the event data is being reproduced by the event
イベントデータ再生部204による1シーン分のイベントデータの再生が終了すると、課金データ処理部206はその時点の時刻を示す再生終了時刻データを生成し、生成した再生終了時刻データを記憶部101に記憶させる。その後、制御部103は図14(c)に示したような再生指示画面を再度、ディスプレイ18に表示させる。
When the event
[1.2.3.イベントデータの再生(本番モード)]
一方、記憶部101に再生モードデータ「本番モード」が記憶されている場合、ビデオ生成システム1がイベントデータの再生に際し行う動作は、上記の練習モードにおける場合と多くの点で共通しているが、以下の点で異なる。
[1.2.3. Event data playback (production mode)]
On the other hand, when the playback mode data “production mode” is stored in the storage unit 101, the operation performed by the
まず、イベントデータ再生部204は、練習モードにおいて送信するイベントデータに加え、さらに以下のイベントデータを動作制御ブロック203に対し送信する。
(h)イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータ→レンダリング処理部2023。
(i)イベントシーケンスデータCWに含まれるカメラ動作制御を指示するイベントデータ→カメラ動作制御部2031。
(j)イベントシーケンスデータCWに含まれるカメラ位置を指示するイベントデータ→移動動作制御部2032。
(k)イベントシーケンスデータCWに含まれる照明装置動作制御を指示するイベントデータ→照明動作制御部2033。
First, the event
(H) Event data indicating the camera operation control and camera position included in the event sequence data CW → the
(I) Event data instructing camera operation control included in the event sequence data CW → camera
(J) Event data indicating the camera position included in the event sequence data CW → the movement
(K) Event data instructing lighting device operation control included in the event sequence data CW → lighting
カメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033は、それぞれ上記(i)、(j)および(k)のイベントデータに従い、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御を行う。その動作制御に従い、ビデオカメラ15はズーム倍率やフォーカスの強さを変更し、カメラ移動装置16はビデオカメラ15の位置および方向を変更し、照明装置17は照明の色および明るさを変更する。その結果、ビデオカメラ15は変化に富む画像データを順次生成することができる。ビデオカメラ15は撮像処理により生成した画像データをトリミング処理部2024に送信する。
The camera
トリミング処理部2024はビデオカメラ15a〜dから送信される画像データの各々について、ユーザの画像部分を取り出すトリミング処理を行い、ユーザ画像データを生成する。トリミング処理部2024はユーザ画像データを、いずれのビデオカメラ15の画像データから生成したものであるかを示すデータとともにレンダリング処理部2023に送信する。また、トリミング処理部2024は、生成したユーザ画像データの各々に関し、ユーザにより両手両足の各々に装着されたマーカの色ごとに、マーカの画像部分を取り出すトリミング処理を行い、マーカ画像データを生成する。トリミング処理部2024はマーカ画像データを、いずれのユーザ画像データから生成したものであるかを示すデータとともにレンダリング処理部2023に送信する。
The trimming
一方、マイク位置算出部205は、超音波受信器19a〜dの各々から超音波を示すデータを受信し、受信したデータに基づきマイク12aおよびbの位置を示すマイク座標データを生成する。マイク位置算出部205は生成したマイク座標データを、マイク12aおよびbのいずれに対応するものかを示すデータとともにレンダリング処理部2023に送信する。
On the other hand, the microphone
レンダリング処理部2023は、トリミング処理部2024からユーザ画像データおよびマーカ画像データを、またマイク位置算出部205からマイク座標データを受信すると、その時点でイベントデータ再生部204から受信しているカメラ位置およびカメラ方向を指示するイベントデータと、マイク位置算出部205から受信したマイク座標データに基づき、ビデオカメラ15により生成された画像データにおけるユーザ画像データの位置と、ビデオカメラ15の位置とマイク12の位置関係から定まるユーザの位置との照合を行う。このレンダリング処理部2023による照合処理により、1つのビデオカメラ15により複数のユーザが撮像されている場合においても、いずれのユーザ画像データがいずれのユーザのものであるかが特定される。
When the
続いて、レンダリング処理部2023は、マーカ画像データにより示されるマーカ部分の代表点、例えば重心の座標を示すマーカ座標データを算出する。各マーカはユーザのいずれの部位に装着されたものであるかが色により区別され、各マーカ画像データにはその生成に用いられたユーザ画像データを示すユーザが付加されているので、レンダリング処理部2023は算出したマーカ座標データがいずれのユーザのいずれの部位に装着されたマーカ位置を示すものであるかを特定することができる。
Subsequently, the
上記のように各ユーザとの対応付けが行われたユーザ画像データと、各ユーザの各部位との対応付けが行われたマーカ座標データを用いて、レンダリング処理部2023は、ユーザにより選択されたキャラクタに関し、キャラクタの画像データの生成処理を以下のように行う。
The
記憶部101にキャラクタモードデータ「実物」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、イベントデータに従ってレンダリング処理により生成したキャラクタイメージの画像データの代わりに、トリミング処理部2024から送信されるユーザ画像データをそのまま画像データ加工処理部2025に送信する。その際、レンダリング処理部2023は、記憶部101に記憶されているキャラクタ対応データに従い、例えばマイク12aを装着しているユーザのユーザ画像データにキャラクタ名称「さる」を、またマイク12bを装着しているユーザのユーザ画像データにキャラクタ名称「母ガニ」を付加して送信する。その結果、画像データ加工処理部2025はレンダリング処理部2023から受信するユーザ画像データをどのレイヤに配置すべきかを特定することができる。
When the character mode data “real” is stored in the storage unit 101, the
また、記憶部101にキャラクタモードデータ「着ぐるみ」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、マイク位置算出部205から受信したマイク座標データおよび算出したマーカ座標データに基づきキャラクタの各パーツの位置および方向を算出し、イベントデータにより指示される各パーツの位置および方向の代わりに、マーカ座標データより算出した位置および方向に従ったレンダリング処理を行う。また、レンダリング処理部2023は、ユーザ画像データから上部に位置する楕円形部分をユーザの顔部分の画像データとして取り出す。レンダリング処理部2023は、レンダリング処理により生成したキャラクタイメージの顔部分の画像データを、ユーザの顔部分の画像データと置き換える。その結果、レンダリング処理部2023はユーザの動作に応じて各パーツの位置および方向が変化するキャラクタイメージにユーザの顔の画像を合成した画像データを生成する。レンダリング処理部2023は、そのように生成した画像データをキャラクタ名称とともに画像データ加工処理部2025に送信する。
When the character mode data “costume” is stored in the storage unit 101, the
また、記憶部101にキャラクタモードデータ「イメージ」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、上記のキャラクタモードデータ「着ぐるみ」の場合とほぼ同様の処理を行うが、レンダリングにより生成したキャラクタイメージの顔部分の画像データをユーザの顔部分の画像データと置き換える処理は行わない。その一方で、レンダリング処理部2023はユーザの顔部分の画像データのうち、上部に左右に並んで位置する楕円形部分を目部分の画像データとして、また顔部分の下部に上下に並んで位置する楕円形部分を唇部分の画像データとして取り出す。レンダリング処理部2023は、そのように取り出した目部分および唇部分の顔部分における位置情報を算出し、その位置情報に基づき、レンダリング処理におけるキャラクタイメージの目のパーツおよび唇のパーツの位置を決定する。その結果、レンダリング処理部2023はユーザの手足および目や唇の動作に応じて各パーツの位置および方向が変化するキャラクタイメージの画像データを生成する。レンダリング処理部2023は、そのように生成した画像データをキャラクタ名称とともに画像データ加工処理部2025に送信する。
When the character mode data “image” is stored in the storage unit 101, the
上記のような画像データブロック202の処理により、本番モードにおいては、ユーザの画像もしくはユーザの動作に応じて変化するキャラクタイメージの画像が用いられた画面がディスプレイ18に表示される。図14(e)は、本番モードにおいて、キャラクタモード「着ぐるみ」が選択されている場合に、ディスプレイ18に表示される画面を例示している。
Through the processing of the image data block 202 as described above, in the production mode, a screen using a user image or a character image that changes according to the user's operation is displayed on the
また、本番モードにおいては、画像データ加工処理部2025は、ユーザにより選択されているキャラクタの静止画像の表示を指示するイベントデータを受信した場合、そのイベントデータにより指示される静止画データを記憶部101から読み出す代わりに、レンダリング処理部2023から送信される画像データの1コマ分を用いる。従って、画像データ加工処理部2025により合成され、ディスプレイ18に表示される画像には、ユーザにより選択されているキャラクタモードに応じて、ユーザの画像、ユーザの顔画像をキャラクタイメージに組み込んだ画像、もしくはキャラクタイメージが含まれることになる。また、ユーザの静止画データもしくはユーザの動きに応じたキャラクタイメージが用いられる場合、画像データ加工処理部2025により用いられる1コマ分の画像データに対応するユーザの画像データをビデオカメラ15が撮像するタイミングに応じて、イベントシーケンスデータDLに従い、ユーザに対し、例えば「静止画の撮影を行います。3、2、1、はい!」のような演技指導の音声の発音および文字の表示が行われるようにしてもよい。
In the production mode, when the image
一方、音データブロック201においても、本番モードにおいては練習モードと一部異なる処理が行われる。まず、イベントデータ再生部204は、記憶部101に記憶されているキャラクタ対応データに従い、ユーザにより選択されているキャラクタに関する台詞のお手本音声の再生を指示するイベントデータを音データ再生部2012に送信しない。その結果、音データ再生部2012は、ユーザにより選択されていないキャラクタの台詞音声のみを再生する。
On the other hand, also in the sound data block 201, processing different from the practice mode is performed in the actual mode. First, the event
また、イベントデータ再生部204は、演技指導の音声の再生を指示するイベントデータを音データ再生部2012に送信しない。その結果、音データ再生部2012により演技指導の音声が再生されることはない。
Further, the event
また、音データ加工処理部2013は、ユーザにより選択されているキャラクタの音声を示す音データとして、音データ再生部2012から送信される音データではなく、マイク12により拾音された音を示す音データを用いる。その際、音データ加工処理部2013は記憶部101に記憶されているキャラクタ対応データに従い、いずれのマイク12から受信する音データをいずれのキャラクタの台詞を示す音データとして用いるかを特定する。その結果、音データ加工処理部2013は、イベントデータにより指示されるエフェクト処理の対象となる音データを特定することができる。
The sound
上記のような音データブロック201の処理により、本番モードにおいては、ユーザの音声が用いられた音がスピーカ14から発音される。
Through the processing of the sound data block 201 as described above, a sound using the user's voice is generated from the
ところで、本番モードにおいては、音データ加工処理部2013により生成される音データは、アンプ13に出力されるとともに記憶部101に順次記憶される。同様に、画像データ加工処理部2025により生成される画像データは、ディスプレイ18に送信されるとともに記憶部101に順次記憶される。ただし、記憶部101に記憶される画像データは、画像データ加工処理部2025が文字画面生成部2022から受信する演技指導および台詞の文字表示画面のデータがスーパーインポーズされていないものである。
By the way, in the production mode, the sound data generated by the sound
イベントデータ再生部204による1シーン分のイベントデータの再生が終了すると、課金データ処理部206はその時点の時刻を再生終了時刻データとして記憶部101に記憶させる。また、制御部103は、記憶部101に順次記憶した音データおよび画像データを統合し、例えばシーンを特定可能な「シーン1.mov」等のファイル名を付加してビデオデータとして保存する。その後、制御部103は図14(c)に示したような再生指示画面を再度、ディスプレイ18に表示させる。ただし、この場合、再生指示画面に含まれるシーン名称のリストにおいては、ビデオデータの生成がなされたシーンに対応するテイクの欄が「完了」と表示される。
When the event
ユーザは再生指示画面(図14(c))において、自由に練習もしくは撮影を行いたいシーンを選択し、上記と同様に練習モードもしくは本番モードによるイベントデータの再生を繰り返す。各々のシーンの再生に伴い、課金データ処理部206は再生開始時刻データおよび再生終了時刻データを記憶部101に記憶するとともに、記憶部101の再生回数カウンタに1を加算する。ユーザにより、選択されたストーリに含まれる全てのシーンに関するテイクが完了すると、ディスプレイ18には図14(f)に示されるような全テイク完了の通知画面が表示される。ユーザが全テイク完了の通知画面において「再生」を選択すると、ビデオ生成装置10の動画データ再生部2021は各シーンのビデオデータをシーンの順序に従って順次再生する。その結果、ユーザは自分の画像もしくは自分の動作により動くキャラクタイメージが登場する短編映画がディスプレイ18に表示されるのを楽しむことができる。
On the playback instruction screen (FIG. 14C), the user freely selects a scene to be practiced or photographed, and repeats the playback of event data in the practice mode or the production mode as described above. As each scene is reproduced, the billing
また、ユーザはビデオ生成システム1により生成された短編映画の出来が気に入らない場合には、「戻る」を選択しディスプレイ18に再生指示画面(図14(c))を表示させ、既にテイクの完了したシーンに関し、撮影のやり直しを行うこともできる。また、ユーザはビデオ生成システム1により生成された短編映画の出来が気に入った場合には、メディアドライブ20にフラッシュメモリ等の記憶媒体を装填した後、「保存」を選択することにより、短編映画のビデオデータを記憶媒体に保存させることができる。また、ユーザは「送信」を選択した後、例えば電子メールのアドレス等を指定することにより、インターネット21を介して希望の通信端末に短編映画のビデオデータを送信させることができる。その結果、ユーザはビデオ生成システム1により生成された短編映画を自宅等で繰り返し楽しんだり、友人に送信したりすることができる。
If the user does not like the short movie generated by the
[1.2.4.課金処理]
全テイク完了の通知画面(図14(f))において、ユーザが「終了」を選択すると、ビデオ生成装置10はユーザのビデオ生成システム1の利用に対する課金処理を行う。まず、ユーザの「終了」の選択操作に応じて、課金データ処理部206は記憶部101に記憶されている課金方法データに従い、課金額の算出処理を行う。例えば課金方法データが「150円/5分間」である場合、課金データ処理部206は記憶部101に記憶されている再生開始時刻データおよび再生終了時刻データに基づきビデオ生成装置10によりイベントデータの再生が行われた時間を算出し、算出した時間(分)を5で除した値に1500を乗じて、課金額(円)を算出する。
[1.2.4. Billing process]
When the user selects “END” on the notification screen for the completion of all takes (FIG. 14F), the
また、例えば課金方法データが「300円/シーン」である場合、課金データ処理部206は記憶部101に記憶されている再生回数カウンタの値に300を乗じて、課金額(円)を算出する。これらの課金額の算出方法は例示であって、他に様々な課金額の算出方法が考えられる。また、本実施形態においてはイベントデータの再生時間およびイベントデータの再生の行われたシーンの数に基づき課金額を算出するものとして説明したが、例えばビデオ生成システム1の動作の開始から終了に至る全時間を課金額の算出に用いたり、ユーザにより選択されたキャラクタの数を課金額の算出に用いるなど、他の様々な情報を課金額の算出に用いてもよい。
For example, when the accounting method data is “300 yen / scene”, the accounting
続いて、制御部103は、課金データ処理部206により算出された課金額を用いて、ディスプレイ18に図15(a)に示す課金額の支払方法の選択画面を表示させる。支払方法の選択画面において、ユーザは例えばクレジットカードによる決済もしくは銀行口座からの引き落としのいずれかを選択することができる。ユーザにより「クレジットカード」もしくは「銀行口座」が選択された場合、制御部103は図15(b)もしくは(c)に示す画面を表示させ、クレジットカードによる決済もしくは銀行口座からの引き落としに必要な情報の入力をユーザに促す。ユーザにより必要な情報の入力が行われ、「OK」が選択されると、制御部103は、例えばインターネット21を介してクレジットカード会社もしくは銀行のサーバに接続し、ユーザにより入力された情報を用いて、当該サーバに対し、課金額の決済処理もしくは送金処理の指示を行う。
Subsequently, the
本実施形態においては、課金額の支払方法としてクレジットカードおよび銀行口座によるものを例示したが、例えば現金による決済等、他の支払方法を採用してもよい。例えばビデオ生成システム1において、現金による決済を選択可能とする場合、ビデオ生成システム1はビデオ生成装置10に接続されたキャッシュレジスタを備え、ユーザによるキャッシュレジスタに対する現金の投入に対し、釣り銭の排出を行う。さらに、ビデオ生成システム1がビデオ生成装置10に接続された印刷装置を備えるようにし、ユーザに対し領収書やクレジットカードの利用控書等の書類を発行するようにしてもよい。制御部103は、上記のサーバに対する決済処理もしくは送金処理の指示を終えると、ディスプレイ18に図15(d)に示す画面を表示させ、一連の動作を完了する。
In the present embodiment, the payment method of the charge amount is exemplified by a credit card and a bank account, but other payment methods such as cash settlement may be adopted. For example, in the
以上のように、ビデオ生成システム1によれば、予め準備されたイベントシーケンスデータに従い、リアルタイムに撮像されるユーザの画像データを用いて適切な加工処理により生成された画像データと、リアルタイムに拾音されるユーザの音声データを用いて適切な加工処理により生成された音データからなるビデオデータが自動生成される。その際、台詞文字や動作の手本となるキャラクタイメージの表示、演技指導の音声の発音および文字の表示等が行われるため、ユーザは気軽にビデオデータの生成に参加することができるとともに、観衆をより楽しませることができるビデオデータを生成することができる。
As described above, according to the
また、ビデオ生成システム1によれば、ユーザは予め準備された複数のイベントシーケンスデータの中から好みのアレンジに対応するものを選択することにより、自分の好みやその場の雰囲気に沿ったビデオデータを生成することができる。
Further, according to the
また、ビデオ生成システム1によれば、例えばビデオカメラの位置やズーム倍率の変更等、照明の色や明るさの変更等に応じて、バックグラウンドイメージやキャラクタイメージ等の画像データに適切な加工処理が行われるため、より観衆を楽しませることができるビデオデータを生成することができる。
Further, according to the
ところで、ビデオ生成装置10は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。ビデオ生成装置10が汎用コンピュータにより実現される場合、制御部103の各構成部は、汎用コンピュータが備えるCPU(Central Processing Unit)およびCPUの制御下で動作するDSP(Digital Signal Processor)が、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。
By the way, the
また、上記においては、イベントデータ再生部204が、動作制御ブロック203に対し送信するイベントデータを画像データブロック202にも送信することにより、動作制御ブロック203と画像データブロック202との動作の連動を実現する場合について説明したが、例えばイベントデータ再生部204が、動作制御ブロック203に送信するイベントデータを音データブロック201にも送信することにより、動作制御ブロック203と音データブロック201との動作の連動を実現するようにしてもよい。音データブロック201と画像データブロック202との動作の連動についても同様である。
In the above description, the event
[2.第2実施形態]
上記の第1実施形態においては、ビデオ生成システム1は、ビデオ生成装置10と、ビデオ生成装置10に接続されるマイク12等の各種装置の組合せにより構成されている。しかしながら、本発明にかかるビデオ生成システムの構成部のいずれを組み合わせて同じ筐体に配置するかは自由に変更可能である。図16は、本発明にかかるビデオ生成システムを、図2で示したビデオ生成システム1とは異なる配置により実現したビデオ生成システム2の構成を示したブロック図である。以下、ビデオ生成システム2を本発明の第2実施形態として説明する。
[2. Second Embodiment]
In the first embodiment described above, the
ただし、ビデオ生成システム2の構成および動作は、ビデオ生成システム1のものと多くの点で共通しているので、以下、ビデオ生成システム2がビデオ生成システム1と異なる点のみ説明する。図16において、ビデオ生成システム2の構成部のうち、ビデオ生成システム1と同様の構成部に関しては、同じ符合が付されている。また、図16においては図の簡略化のため、各構成部間の詳細なデータフローを示す矢印が省略され、また複数個からなる同種の構成部は1つのみ示されている。
However, since the configuration and operation of the video generation system 2 are similar to those of the
ビデオ生成システム2は、ビデオ生成システム1のビデオ生成装置10の代わりに、音データ処理装置31、画像データ処理装置32および中央管理装置33を備えている。音データ処理装置31は、ビデオ生成システム1における音データブロック201に含まれる構成部を含む制御部1031と、記憶部1011および入出力I/F1021を備えている。画像データ処理装置32は、ビデオ生成システム1における画像データブロック202に含まれる構成部と超音波受信器19およびマイク位置算出部205を含む制御部1032と、記憶部1012および入出力I/F1022を備えている。中央管理装置33は、ビデオ生成システム1におけるイベントデータ再生部204および課金データ処理部206を含む制御部1033と、記憶部1013および入出力I/F1023を備えている。
The video generation system 2 includes a sound
入出力I/F1021〜1023は、ビデオ生成装置10の入出力I/F102と同様に、他の装置との間でデータの入出力を行うためのインタフェースである。記憶部1011〜1013は、ビデオ生成装置10の記憶部101と同様に、制御部1031〜1033による各種処理を指示するプログラムを予め記憶し、また制御部1031〜1033により生成されるデータを一時的に記憶する。また、例えば中央管理装置33の記憶部1013は、予め、複数のストーリデータ1010を記憶している。
The input / output I /
また、ビデオ生成システム2におけるビデオカメラ15、カメラ移動装置16および照明装置17はそれぞれ、カメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。
The
ビデオ生成システム2において、ユーザがコントローラ11を用いてイベントデータの再生を指示すると、中央管理装置33はユーザの選択操作により特定されるイベントシーケンスデータに従い、イベントデータの内容に従い、音データ処理装置31、画像データ処理装置32、ビデオカメラ15、カメラ移動装置16および照明装置17の各々にイベントデータを送信する。また、中央管理装置33は、イベントデータの送信に先立ち、もしくは並行して、イベントデータにより指示される処理に要するソースデータを、音データ処理装置31もしくは画像データ処理装置32に送信する。ただし、中央管理装置33がソースデータを送信する代わりに、音データ処理装置31および画像データ処理装置32が、各々処理に必要なソースデータを予め記憶部1011および記憶部1012に記憶しておいてもよい。
In the video generation system 2, when the user instructs the reproduction of the event data using the
音データ処理装置31は、中央管理装置33から受信したイベントデータに従い、音データの再生処理および加工処理を行い、生成した音データをアンプ13に出力する。また、ユーザにより本番モードが選択されている場合、音データ処理装置31は生成した音データを中央管理装置33に送信し、中央管理装置33は音データ処理装置31から送信された音データを記憶部1013に記憶する。
The sound
画像データ処理装置32は、中央管理装置33から受信したイベントデータに従い、画像データの再生処理および加工処理を行い、生成した画像データをディスプレイ18に送信する。また、ユーザにより本番モードが選択されている場合、画像データ処理装置32は生成した画像データを中央管理装置33に送信し、中央管理装置33は画像データ処理装置32から送信された画像データを記憶部1013に記憶する。
The image
上記のように、本番モードにおいて記憶部1013に順次記憶された音データおよび画像データは、ユーザが登場人物として参加するビデオデータとして統合され、ユーザの指示により再生、送信、記憶媒体への保存等がなされる。
As described above, the sound data and the image data sequentially stored in the
以上説明したビデオ生成システム2によっても、第1実施形態におけるビデオ生成システム1と同様に、ユーザは気軽にビデオデータの生成に参加することができるとともに、観衆をより楽しませることができるビデオデータを生成することができる。
Also with the video generation system 2 described above, as with the
ところで、音データ処理装置31、画像データ処理装置32および中央管理装置33は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。音データ処理装置31、画像データ処理装置32および中央管理装置33が汎用コンピュータにより実現される場合、制御部1031、制御部1032および制御部1033の各構成部は、汎用コンピュータが備えるCPUおよびCPUの制御下で動作するDSPが、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。
By the way, the sound
[3.第3実施形態]
上記のビデオ生成システム1およびビデオ生成システム2は、超音波発生器121を備えるマイク12、カメラ移動装置16、照明装置17等の、一般のユーザが所有しないと思われる専用装置を備えている。そのため、一般のユーザが自宅で本発明にかかるビデオデータの生成を行うことは困難である。しかしながら、本発明にかかるビデオ生成システムは、ビデオ生成システム1もしくはビデオ生成システム2が備える全ての構成部を備える必要はない。以下、パーソナルコンピュータに家庭用のディスプレイ、ビデオカメラ、マイク、アンプ、スピーカ等を接続して、パーソナルコンピュータのCPUおよびDSPにアプリケーションプログラムに従った処理を実行させることにより、本発明を実施する場合を第3実施形態として説明する。
[3. Third Embodiment]
The
図17は、第3実施形態にかかるビデオ生成システム3の構成を示したブロック図である。ただし、ビデオ生成システム3の構成および動作は、ビデオ生成システム1のものと多くの点で共通しているので、以下、ビデオ生成システム3がビデオ生成システム1と異なる点のみ説明する。図17において、ビデオ生成システム3の構成部のうち、ビデオ生成システム1と同様の構成部に関しては、同じ符合が付されている。また、図17においては図の簡略化のため、複数個からなる同種の構成部は1つのみ示されている。
FIG. 17 is a block diagram showing the configuration of the video generation system 3 according to the third embodiment. However, since the configuration and operation of the video generation system 3 are common in many respects to those of the
ビデオ生成システム3は、パーソナルコンピュータ40と、キーボード41およびディスプレイ18が接続されたパーソナルコンピュータ40に、さらに、家庭用のマイク12、アンプ13、スピーカ14、ビデオカメラ15、およびメディアドライブ20を接続して得られる構成を備えている。キーボード41は複数のキーを備え、ユーザによるキーの押下操作に応じて、押下されたキーに対応する信号をパーソナルコンピュータ40に送信することにより、ユーザの指示をパーソナルコンピュータ40に入力する機能を備える。
The video generation system 3 further connects a
パーソナルコンピュータ40は、RAM(Random Access Memory)、ROM(Read Only Memory)、HD(Hard Disk)等により構成される記憶部101と、1以上のCPUおよびDSPにより構成される制御部103と、入出力I/F102を備えている。
The
制御部103は、記憶部101に記憶されているアプリケーションプログラムに従った処理を実行することにより、音源部2011、音データ再生部2012および音データ加工処理部2013を含む音データブロック201と、動画データ再生部2021、文字画面生成部2022、レンダリング処理部2023、トリミング処理部2024および画像データ加工処理部2025を含む画像データブロック202と、カメラ動作制御部2031と、イベントデータ再生部204の各機能を実現する。
The
ビデオ生成システム3のマイク12は超音波発生器121を備えておらず、またパーソナルコンピュータ40には超音波受信器19が接続されていない。従って、パーソナルコンピュータ40は超音波によるマイク位置の算出処理は行わず、マイク位置に基づくユーザの特定処理も行わない。その代わり、パーソナルコンピュータ40のトリミング処理部2024が、ユーザの画像データに基づき、各ユーザの特定処理を行う。
The
より具体的には、まず、複数のユーザの各々は異なる色のマーカを胸等に装着する。ビデオカメラ15により撮像される画像データには、ユーザの画像とともに、マーカの画像が含まれている。トリミング処理部2024は、ビデオカメラ15より画像データを受信すると、トリミング処理によりユーザ画像データを生成し、ユーザ画像データから、ユーザが胸等に装着したマーカの各々の色を示すデータを抽出する。トリミング処理部2024は、いずれの色のデータがいずれのユーザ画像データの位置から抽出されたものであるかを特定し、異なるユーザの画像を示すユーザ画像データの各々に対し、対応する色を示すデータを付加して、レンダリング処理部2023に送信する。レンダリング処理部2023は、ユーザ画像データに付加されている色を示すデータに基づき、いずれのユーザ画像データがいずれのユーザを示すものであるかを特定することができる。
More specifically, first, each of the plurality of users wears different color markers on the chest or the like. The image data captured by the
パーソナルコンピュータ40がユーザとユーザの画像データとを対応付ける方法は、上記のものに限られない。例えば、ユーザの各々の画像データを予めパーソナルコンピュータ40に記憶させておき、パーソナルコンピュータ40の画像データブロック202が、ビデオカメラ15から受信した画像データから複数のユーザ画像データを生成した場合、予め記憶されている各々のユーザの画像データと生成したユーザ画像データの各々を比較して、類似度の高いものを各々対応付けるようにしてもよい。
The method in which the
上記のように、ビデオ生成システムがマイク位置を算出する機能を備えない場合、ビデオ生成システムは各ユーザの3次元空間における正確な位置を特定することは困難であるが、ユーザ画像データの位置および大きさに基づき、各ユーザの3次元空間におけるおよその位置を特定することが可能である。 As described above, when the video generation system does not have a function of calculating the microphone position, it is difficult for the video generation system to specify an accurate position of each user in the three-dimensional space. Based on the size, it is possible to specify an approximate position of each user in the three-dimensional space.
さらに、パーソナルコンピュータ40にはカメラ移動装置16および照明装置17は接続されておらず、従って、パーソナルコンピュータ40はビデオカメラ15の移動動作の制御処理および照明装置17の制御処理を行わない。その代わり、パーソナルコンピュータ40の画像データ加工処理部2025が、イベントデータ再生部204から受信するイベントデータに従い、各種の画像データの加工処理を行うことにより、ビデオカメラ15が移動された場合に得られる画像データや、照明の色や明るさが変更された場合に得られる画像データと類似の画像データを生成する。
Further, the
以上説明したビデオ生成システム3によれば、ユーザは自宅等において、気軽に自分が登場人物として参加するビデオデータの生成を行うことができる。 According to the video generation system 3 described above, the user can easily generate video data in which he / she participates as a character at home or the like.
1・2・3…ビデオ生成システム、10…ビデオ生成装置、11…コントローラ、12…マイク、13…アンプ、14…スピーカ、15…ビデオカメラ、16…カメラ移動装置、17…照明装置、18…ディスプレイ、19…超音波受信器、20…メディアドライブ、21…インターネット、31…音データ処理装置、32…画像データ処理装置、33…中央管理装置、40…パーソナルコンピュータ、41…キーボード、101・1011・1012・1013…記憶部、102・1021・1022・1023…入出力I/F、103・1031・1032・1033…制御部、121…超音波発生器、201…音データブロック、202…画像データブロック、203…動作制御ブロック、204…イベントデータ再生部、205…マイク位置算出部、206…課金データ処理部、1010…ストーリデータ、2011…音源部、2012…音データ再生部、2013…音データ加工処理部、2021…動画データ再生部、2022…文字画面生成部、2023…レンダリング処理部、2024…トリミング処理部、2025…画像データ加工処理部、2031…カメラ動作制御部、2032…移動動作制御部、2033…照明動作制御部。
DESCRIPTION OF
Claims (13)
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、
前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段と
を備えることを特徴とするデータ処理装置。 Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of the instruction at a timing according to the timing data associated with the operation instruction data;
Image processing instruction data transmitting means for transmitting the image processing instruction data to an image data processing device that processes user image data at a timing according to timing data associated with the image processing instruction data. A data processing apparatus.
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、
前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段と
を備えることを特徴とするデータ処理装置。 Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
Operation instruction notification means for notifying the user of instruction indicated by the operation instruction data at a timing according to timing data associated with the operation instruction data;
Image processing instruction data transmitting means for transmitting the image processing instruction data to an image data processing device that processes user image data at a timing according to timing data associated with the image processing instruction data. A data processing apparatus.
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、
撮像装置より、ユーザの画像データを受信する画像データ受信手段と、
前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段と
を備えることを特徴とするデータ処理装置。 Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of the instruction at a timing according to the timing data associated with the operation instruction data;
Image data receiving means for receiving user image data from the imaging device;
Image data processing means for performing processing on the image data of the user at a timing corresponding to timing data associated with the image processing instruction data. Data processing device.
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、
撮像装置より、ユーザの画像データを受信する画像データ受信手段と、
前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段と
を備えることを特徴とするデータ処理装置。 Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
Operation instruction notification means for notifying the user of instruction indicated by the operation instruction data at a timing according to timing data associated with the operation instruction data;
Image data receiving means for receiving user image data from the imaging device;
Image data processing means for performing processing on the image data of the user at a timing corresponding to timing data associated with the image processing instruction data. Data processing device.
をさらに備えることを特徴とする請求項3または4のいずれかに記載のデータ処理装置。 5. The data processing apparatus according to claim 3, further comprising a display unit configured to display an image indicated by image data generated as a result of the processing performed by the image data processing unit.
をさらに備えることを特徴とする請求項3または4のいずれかに記載のデータ処理装置。 The data processing apparatus according to claim 3, further comprising an image data storage unit that stores image data generated as a result of the processing by the image data processing unit.
音声データに対し実行されるべき加工処理を指示する音声処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する音声処理指示データ記憶手段と、
前記発声指導データにより示される指導を、前記発声指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する発声指導通知手段と、
拾音装置より、ユーザの音声データを受信する音声データ受信手段と、
前記音声処理指示データにより指示される加工処理を、前記音声処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの音声データに対し行う音声データ処理手段と
をさらに備えることを特徴とする請求項1乃至4のいずれかに記載のデータ処理装置。 Utterance instruction data storage means for storing utterance instruction data indicating instruction of utterance to be performed by the user in association with timing data indicating timing at which the instruction should be notified to the user;
Voice processing instruction data storage means for storing voice processing instruction data for instructing processing to be executed on the voice data in association with timing data indicating timing at which the processing is to be executed;
Utterance instruction notification means for notifying the user of instruction indicated by the utterance instruction data at a timing according to timing data associated with the utterance instruction data;
Voice data receiving means for receiving user voice data from the sound pickup device;
Voice data processing means for performing a processing process instructed by the voice processing instruction data on the voice data of the user at a timing according to timing data associated with the voice processing instruction data. A data processing apparatus according to any one of claims 1 to 4.
をさらに備えることを特徴とする請求項7に記載のデータ処理装置。 The data processing apparatus according to claim 7, further comprising: sound generation means for generating a sound indicated by sound data generated as a result of the processing by the sound data processing means.
をさらに備えることを特徴とする請求項7に記載のデータ処理装置。 The data processing apparatus according to claim 7, further comprising: sound data storage means for storing sound data generated as a result of processing by the sound data processing means.
前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信する動作指示データ送信手段と
をさらに備えることを特徴とする請求項1乃至4のいずれかに記載のデータ処理装置。 An operation for storing operation instruction data instructing an operation to be executed by at least one of the imaging device, a moving device for moving the imaging device, and an illumination device in association with timing data indicating a timing at which the operation is to be executed Instruction data storage means;
The operation instruction data is irradiated with light to an imaging device that generates user image data, a moving device that moves the imaging device, and a user at a timing according to timing data associated with the operation instruction data. The data processing device according to claim 1, further comprising: an operation instruction data transmitting unit that transmits to at least one of the lighting devices to be performed.
前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信するとともに、前記画像データ処理手段にも送信する動作指示データ送信手段と
をさらに備え、
前記画像データ処理手段は、前記ユーザの画像データに対し、前記動作指示データに従った加工処理を行う
ことを特徴とする請求項3または4のいずれかに記載のデータ処理装置。 An operation for storing operation instruction data instructing an operation to be executed by at least one of the imaging device, a moving device for moving the imaging device, and an illumination device in association with timing data indicating a timing at which the operation is to be executed Instruction data storage means;
The operation instruction data is irradiated with light to an imaging device that generates user image data, a moving device that moves the imaging device, and a user at a timing according to timing data associated with the operation instruction data. An operation instruction data transmitting means for transmitting to at least one of the lighting devices to be performed and also for transmitting to the image data processing means,
5. The data processing apparatus according to claim 3, wherein the image data processing unit performs processing on the image data of the user according to the operation instruction data.
前記画像データ処理手段は、前記ユーザの画像データに代えて、もしくは前記ユーザの画像データに加えて、前記画像データ生成手段により生成された画像データに対し、前記画像処理指示データに従った加工処理を行う
ことを特徴とする請求項4に記載のデータ処理装置。 Image data generating means for sequentially generating image data that changes in response to temporal changes in user image data sequentially received by the image data receiving means;
The image data processing means performs processing according to the image processing instruction data on the image data generated by the image data generation means instead of or in addition to the user image data. The data processing apparatus according to claim 4, wherein:
画像データに対し実行されるべき処理を指示する画像処理指示データを、当該処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する処理と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する処理と、
撮像装置より、ユーザの画像データを受信する処理と、
前記画像処理指示データに従い、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データを加工する処理と、
前記加工の結果生成される画像データにより示される画像を表示する処理と、
前記加工の結果生成される画像データを記憶する処理と
をコンピュータに実行させることを特徴とするプログラム。 A process of storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the information is to be notified to the user;
Processing for storing image processing instruction data for instructing processing to be performed on image data in association with timing data indicating timing at which the processing should be performed;
A process of notifying the user of the guidance indicated by the motion guidance data at a timing according to the timing data associated with the motion guidance data;
A process of receiving user image data from the imaging device;
Processing the user's image data at a timing according to the timing data associated with the image processing instruction data according to the image processing instruction data;
Processing for displaying an image indicated by image data generated as a result of the processing;
A program for causing a computer to execute processing for storing image data generated as a result of the processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005026911A JP2006217183A (en) | 2005-02-02 | 2005-02-02 | Data processor and program for generating multimedia data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005026911A JP2006217183A (en) | 2005-02-02 | 2005-02-02 | Data processor and program for generating multimedia data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006217183A true JP2006217183A (en) | 2006-08-17 |
Family
ID=36980033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005026911A Withdrawn JP2006217183A (en) | 2005-02-02 | 2005-02-02 | Data processor and program for generating multimedia data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006217183A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271787A (en) * | 2008-05-08 | 2009-11-19 | Kawai Musical Instr Mfg Co Ltd | Performance image creation device, performance image creation method, performance image creation program and recording medium |
JP2010028715A (en) * | 2008-07-24 | 2010-02-04 | Brother Ind Ltd | Conference image generation method, conference system, server device, conference device and the like |
JP2011527863A (en) * | 2008-07-08 | 2011-11-04 | シーンプレイ インコーポレイテッド | Medium generation system and method |
JP2012530404A (en) * | 2009-06-13 | 2012-11-29 | ロールスター インコーポレイテッド | System for juxtaposing scenes recorded separately |
-
2005
- 2005-02-02 JP JP2005026911A patent/JP2006217183A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271787A (en) * | 2008-05-08 | 2009-11-19 | Kawai Musical Instr Mfg Co Ltd | Performance image creation device, performance image creation method, performance image creation program and recording medium |
JP2011527863A (en) * | 2008-07-08 | 2011-11-04 | シーンプレイ インコーポレイテッド | Medium generation system and method |
US9002177B2 (en) | 2008-07-08 | 2015-04-07 | Sceneplay, Inc. | Media generating system and method |
US10346001B2 (en) | 2008-07-08 | 2019-07-09 | Sceneplay, Inc. | System and method for describing a scene for a piece of media |
US10936168B2 (en) | 2008-07-08 | 2021-03-02 | Sceneplay, Inc. | Media presentation generating system and method using recorded splitscenes |
US12032810B1 (en) | 2008-07-08 | 2024-07-09 | Sceneplay, Inc. | Media generating system and method |
JP2010028715A (en) * | 2008-07-24 | 2010-02-04 | Brother Ind Ltd | Conference image generation method, conference system, server device, conference device and the like |
JP2012530404A (en) * | 2009-06-13 | 2012-11-29 | ロールスター インコーポレイテッド | System for juxtaposing scenes recorded separately |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10725729B2 (en) | Virtual and real object recording in mixed reality device | |
US7053915B1 (en) | Method and system for enhancing virtual stage experience | |
Allison | More than a man in a monkey suit: Andy Serkis, motion capture, and digital realism | |
US9667574B2 (en) | Animated delivery of electronic messages | |
CN104700860B (en) | Rhythm imaging method and system | |
JPH11219446A (en) | Audiovisual reproduction system | |
JP2015520403A (en) | Karaoke dancing game | |
TW201233413A (en) | Input support device, input support method, and recording medium | |
US20240203058A1 (en) | System and method for performance in a virtual reality environment | |
US10116604B2 (en) | Animated delivery of electronic messages | |
US7554542B1 (en) | Image manipulation method and system | |
JP4981370B2 (en) | Movie generation system and movie generation method | |
JP5803172B2 (en) | Evaluation device | |
CN110213560A (en) | A kind of immersion video broadcasting method and system | |
JP2021140065A (en) | Processing systems, sound systems and programs | |
JP2020194030A (en) | Karaoke system | |
JP2006217183A (en) | Data processor and program for generating multimedia data | |
Hukerikar | Analyzing the language of immersive animation filmmaking: A study of syntax and narrative techniques in virtual reality | |
JP6313003B2 (en) | Karaoke apparatus, image output method, and program | |
Bevacqua et al. | Real and virtual body percussionists interaction | |
Hamilton | Perceptually coherent mapping schemata for virtual space and musical method | |
WO2025121219A1 (en) | Information processing apparatus, method, and program | |
Sallade | A Taxonomy for Immersive Audio Techniques in Video Game Sound Design | |
Feitsch et al. | Tangible and body-related interaction techniques for a singing voice synthesis installation | |
Heikkilä | An ode to listening: sound diegesis and the perception of space in linear and non-linear narrative |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071217 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |