[go: up one dir, main page]

JP2006217183A - Data processor and program for generating multimedia data - Google Patents

Data processor and program for generating multimedia data Download PDF

Info

Publication number
JP2006217183A
JP2006217183A JP2005026911A JP2005026911A JP2006217183A JP 2006217183 A JP2006217183 A JP 2006217183A JP 2005026911 A JP2005026911 A JP 2005026911A JP 2005026911 A JP2005026911 A JP 2005026911A JP 2006217183 A JP2006217183 A JP 2006217183A
Authority
JP
Japan
Prior art keywords
data
processing
image
user
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005026911A
Other languages
Japanese (ja)
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005026911A priority Critical patent/JP2006217183A/en
Publication of JP2006217183A publication Critical patent/JP2006217183A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means of enabling a user to easily generate multimedia data including data representing the image and the voice of the user himself or herself. <P>SOLUTION: A video generating device 10 displays performance instructions and words to be uttered by the user with characters on a display 18 according to event sequence data that the user selects by operating a controller 11, and performs various processing for sound data representing the voice of the user captured by a microphone 12 and image data representing the image of the user picked up by a video camera 15 to generate multimedia data wherein the user joins as a character. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、マルチメディアデータを生成するためのデータ生成技術に関する。   The present invention relates to a data generation technique for generating multimedia data.

ユーザの好みに合ったマルチメディアデータを簡易に作成することを可能とする技術がある。例えば、ユーザによるアニメーションのタイトルの選択、メッセージの入力および受取人のメールアドレスの指定に応じて、メッセージ入りのアニメーション付きグリーティングカードを自動生成し、指定されたメールアドレスに送信するシステムが広く利用されている。   There is a technology that makes it possible to easily create multimedia data that suits user preferences. For example, a system that automatically generates an animated greeting card with a message and sends it to a specified e-mail address in response to the user selecting an animation title, entering a message, and specifying the recipient's e-mail address is widely used. ing.

例えば特許文献1は、グリーティングカード等を示すマルチメディアデータの雛形に対し、ユーザが許容範囲内において自由に変更を加えることにより、ユーザが積極的に創作性を発揮しつつ新たなマルチメディアデータを生成することを可能とする技術を開示している。
特開2004−7407号公報
For example, Patent Document 1 discloses that a multimedia data template indicating a greeting card or the like can be changed by the user freely within an allowable range so that the user can actively display new multimedia data while demonstrating creativity. A technique that enables generation is disclosed.
Japanese Patent Laid-Open No. 2004-7407

ところで、上記の従来技術による場合、マルチメディアデータの生成にあたりユーザの動画を用いることはできなかった。従って、ユーザは自分の動画が含まれるマルチメディアデータを気軽に作成することができない、という問題があった。   By the way, in the case of the above prior art, a user's moving image cannot be used for generating multimedia data. Therefore, there is a problem that the user cannot easily create multimedia data including his / her moving image.

上記の状況に鑑み、本発明は、ユーザが自分自身の動画データを含むマルチメディアデータを気軽に作成する手段を提供することを目的とする。   In view of the above situation, an object of the present invention is to provide a means for a user to easily create multimedia data including his / her own moving image data.

上記課題を達成するために、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段とを備えることを特徴とするデータ処理装置を提供する。   In order to achieve the above object, the present invention provides operation instruction data that stores operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction should be notified to the user. Storage means, image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on the image data in association with timing data indicating timing at which the processing is to be executed, The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of instruction at a timing according to the timing data associated with the operation instruction data, and the image processing instruction data, User image data at a timing according to the timing data associated with the image processing instruction data To provide a data processing apparatus characterized by comprising an image processing instruction data transmission means for transmitting to the image data processing apparatus for processing.

かかる構成のデータ処理装置によれば、通知装置により適切なタイミングで通知される指導に従い動作するユーザの画像データに対し、画像データ処理装置により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing device having such a configuration, as a result of appropriate processing performed at an appropriate timing by the image data processing device, the image data of the user who operates according to the instruction notified at an appropriate timing by the notification device, Image data indicating a moving image that makes the user more entertaining is generated.

また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段とを備えることを特徴とするデータ処理装置を提供する。   The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. The image processing instruction data for instructing the processing to be executed is stored in association with the timing data indicating the timing at which the processing is to be executed, and the operation instruction data indicates Operation instruction notification means for notifying the user of the instruction to be performed at a timing corresponding to the timing data associated with the operation instruction data, and the timing associated with the image processing instruction data and the image processing instruction data To an image data processing device that processes user image data at a timing according to the data To provide a data processing apparatus characterized by comprising an image processing instruction data transmission means for signals.

かかる構成のデータ処理装置によれば、動作指導通知手段により適切なタイミングでユーザに対し適切な動作の指導が通知されるとともに、その指導に従い動作するユーザの画像データに対し、画像データ処理装置により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing apparatus having such a configuration, the operation instruction notification unit notifies the user of instruction of an appropriate operation at an appropriate timing, and the image data processing apparatus operates on the image data of the user operating according to the instruction. As a result of performing an appropriate processing at an appropriate timing, image data indicating a moving image that makes the user more entertaining is generated.

また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、撮像装置より、ユーザの画像データを受信する画像データ受信手段と、前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段とを備えることを特徴とするデータ処理装置を提供する。   The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. Image processing instruction data storage means for storing image processing instruction data instructing a processing process to be executed in association with timing data indicating a timing at which the processing process is to be executed, and the operation instruction data, Image data for receiving user image data from the imaging device and operation instruction data transmitting means for transmitting to the notification device for notifying the user at the timing according to the timing data associated with the operation instruction data A receiving unit and a processing process instructed by the image processing instruction data are applied to the image processing instruction data. At a timing corresponding to the timing data attached, to provide a data processing apparatus characterized by comprising an image data processing means for performing the image data of the user.

かかる構成のデータ処理装置によれば、通知装置により適切なタイミングで通知される指導に従い動作するユーザの画像データに対し、画像データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing device having such a configuration, as a result of appropriate processing being performed at an appropriate timing by the image data processing means on the image data of the user operating according to the instruction notified at an appropriate timing by the notification device, Image data indicating a moving image that makes the user more entertaining is generated.

また、本発明は、ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、撮像装置より、ユーザの画像データを受信する画像データ受信手段と、前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段とを備えることを特徴とするデータ処理装置を提供する。   The present invention also provides operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by a user in association with timing data indicating a timing at which the instruction is to be notified to the user, and image data. The image processing instruction data for instructing the processing to be executed is stored in association with the timing data indicating the timing at which the processing is to be executed, and the operation instruction data indicates Operation instruction notifying means for notifying the user at a timing according to the timing data associated with the operation instruction data, image data receiving means for receiving user image data from the imaging device, and A processing process instructed by the image processing instruction data is performed with a tag associated with the image processing instruction data. At a timing corresponding to the timing data, to provide a data processing apparatus characterized by comprising an image data processing means for performing the image data of the user.

かかる構成のデータ処理装置によれば、動作指導通知手段により適切なタイミングでユーザに対し適切な動作の指導が通知されるとともに、その指導に従い動作するユーザの画像データに対し、画像データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing apparatus having such a configuration, the operation instruction notification unit notifies the user of the appropriate operation instruction at an appropriate timing, and the image data processing unit applies the image data of the user operating according to the instruction. As a result of performing an appropriate processing at an appropriate timing, image data indicating a moving image that makes the user more entertaining is generated.

好ましい態様において、前記データ処理装置は、前記画像データ処理手段による加工処理の結果生成される画像データにより示される画像を表示する表示手段をさらに備える構成としてもよい。   In a preferred aspect, the data processing device may further include a display unit that displays an image indicated by image data generated as a result of the processing by the image data processing unit.

かかる構成のデータ処理装置によれば、ユーザは生成された画像データに従い表示される動画を楽しむことができる。   According to the data processing apparatus having such a configuration, the user can enjoy a moving image displayed according to the generated image data.

他の好ましい態様において、前記データ処理装置は、前記画像データ処理手段による加工処理の結果生成される画像データを記憶する画像データ記憶手段をさらに備える構成としてもよい。   In another preferred aspect, the data processing device may further include an image data storage unit that stores image data generated as a result of the processing by the image data processing unit.

かかる構成のデータ処理装置によれば、ユーザは生成された画像データを希望する時に利用することができる。   According to the data processing apparatus having such a configuration, the user can use the generated image data when desired.

他の好ましい態様において、前記データ処理装置は、ユーザが行うべき発声の指導を示す発声指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する発声指導データ記憶手段と、音声データに対し実行されるべき加工処理を指示する音声処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する音声処理指示データ記憶手段と、前記発声指導データにより示される指導を、前記発声指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する発声指導通知手段と、拾音装置より、ユーザの音声データを受信する音声データ受信手段と、前記音声処理指示データにより指示される加工処理を、前記音声処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの音声データに対し行う音声データ処理手段とをさらに備える構成としてもよい。   In another preferred embodiment, the data processing device stores utterance instruction data indicating utterance instruction to be performed by the user in association with timing data indicating timing at which the instruction should be notified to the user. Storage means, and voice processing instruction data storage means for storing voice processing instruction data for instructing processing to be executed on the voice data in association with timing data indicating timing at which the processing is to be executed; Voice guidance notification means for notifying the user of guidance indicated by the voice guidance data at a timing according to timing data associated with the voice guidance data, and voice data of the user are received from the sound pickup device. The voice data receiving means and the processing process instructed by the voice processing instruction data are processed by the voice At a timing corresponding to the timing data associated with physical instruction data may be further provided constituting the audio data processing means for performing relative audio data of the user.

かかる構成のデータ処理装置によれば、発声指導通知手段により適切なタイミングでユーザに対し適切な発声の指導が通知されるとともに、その指導に従いユーザにより発声された音声を示す音声データに対し、音声データ処理手段により適切なタイミングで適切な加工処理が施される結果、ユーザをより楽しませる音声を示す音声データを含んだビデオデータの生成が行われる。   According to the data processing apparatus having such a configuration, the utterance instruction notifying unit notifies the user of instruction of appropriate utterance at an appropriate timing, and the voice data indicating the voice uttered by the user according to the instruction is voiced. As a result of performing appropriate processing at an appropriate timing by the data processing means, video data including audio data indicating audio that makes the user more entertaining is generated.

好ましい態様において、前記データ処理装置は、前記音声データ処理手段による加工処理の結果生成される音データにより示される音を発音する発音手段をさらに備える構成としてもよい。   In a preferred aspect, the data processing device may further include sound generation means for generating a sound indicated by sound data generated as a result of the processing by the sound data processing means.

かかる構成のデータ処理装置によれば、ユーザは生成された音データにより示される音を楽しむことができる。   According to the data processing apparatus having such a configuration, the user can enjoy the sound indicated by the generated sound data.

他の好ましい態様において、前記データ処理装置は、前記音声データ処理手段による加工処理の結果生成される音データを記憶する音データ記憶手段をさらに備える構成としてもよい。   In another preferred aspect, the data processing device may further include sound data storage means for storing sound data generated as a result of the processing by the sound data processing means.

かかる構成のデータ処理装置によれば、ユーザは生成された音データを希望する時に利用することができる。   According to the data processing apparatus having such a configuration, the user can use the generated sound data when desired.

好ましい態様において、前記データ処理装置は、撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信する動作指示データ送信手段とをさらに備える構成としてもよい。   In a preferred aspect, the data processing device receives operation instruction data for instructing an operation to be executed by at least one of the imaging device, the moving device for moving the imaging device, and the illumination device at a timing at which the operation is to be executed. An operation instruction data storage unit that stores the operation instruction data in association with the timing data shown, and an imaging device that generates the image data of the user at a timing corresponding to the timing data associated with the operation instruction data, It is good also as a structure further provided with the movement apparatus which moves an imaging device, and the operation instruction data transmission means which transmits to at least 1 of the illuminating device which irradiates light with respect to a user.

かかる構成のデータ処理装置によれば、撮像装置、移動装置もしくは照明装置により、適切なタイミングで適切な撮像処理、移動処理もしくは照明の照射処理が行われるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing device having such a configuration, an image showing a moving image that makes the user more enjoyable because an appropriate imaging process, a moving process, or an illumination irradiation process is performed at an appropriate timing by the imaging device, the moving device, or the lighting device. Data is generated.

他の好ましい態様において、前記データ処理装置は、撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信するとともに、前記画像データ処理手段にも送信する動作指示データ送信手段とをさらに備え、前記画像データ処理手段は、前記ユーザの画像データに対し、前記動作指示データに従った加工処理を行う構成としてもよい。   In another preferred embodiment, the data processing device is configured to execute operation instructions data indicating operation instructions to be executed by at least one of an imaging device, a moving device that moves the imaging device, and an illumination device. An operation instruction data storage unit that stores the operation instruction data in association with timing data, and an imaging apparatus that generates the image data of the user at a timing corresponding to the timing data associated with the operation instruction data. And an operation instruction data transmitting means for transmitting to at least one of a moving device for moving the imaging device and an illuminating device for irradiating light to a user, and also for transmitting to the image data processing means. The data processing means processes the image data of the user according to the operation instruction data. It may be configured to perform.

かかる構成のデータ処理装置によれば、撮像装置、移動装置もしくは照明装置により、適切なタイミングで適切な撮像処理、移動処理もしくは照明の照射処理が行われるとともに、画像データ処理手段により、それらの処理と連動した画像データの加工処理が行われるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing device having such a configuration, the imaging device, the moving device, or the illumination device performs appropriate imaging processing, movement processing, or illumination irradiation processing at an appropriate timing, and the image data processing unit performs these processing. Since the processing of the image data in conjunction with is performed, image data indicating a moving image that makes the user more entertaining is generated.

他の好ましい態様において、前記データ処理装置は、前記画像データ受信手段により順次受信されるユーザの画像データの時間的な変化に応じて変化する画像データを順次生成する画像データ生成手段をさらに備え、前記画像データ処理手段は、前記ユーザの画像データに代えて、もしくは前記ユーザの画像データに加えて、前記画像データ生成手段により生成された画像データに対し、前記画像処理指示データに従った加工処理を行う構成としてもよい。   In another preferred aspect, the data processing apparatus further comprises image data generating means for sequentially generating image data that changes in accordance with temporal changes in user image data sequentially received by the image data receiving means, The image data processing means performs processing according to the image processing instruction data on the image data generated by the image data generation means instead of or in addition to the user image data. It is good also as composition which performs.

かかる構成のデータ処理装置によれば、ユーザの動作に応じて変化する動画を示す画像データが生成されるため、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the data processing device having such a configuration, image data indicating a moving image that changes according to the user's operation is generated, and therefore, image data indicating a moving image that makes the user more entertaining is generated.

他の好ましい態様において、前記データ処理装置は、前記動作指導通知手段による前記通知に要した時間もしくは前記画像データ処理手段による前記加工処理に要した時間の少なくともいずれかに基づき、ユーザに対する課金額を示す課金データを生成する課金データ処理手段をさらに備える構成としてもよい。   In another preferred embodiment, the data processing device calculates a billing amount for the user based on at least one of the time required for the notification by the motion instruction notification means or the time required for the processing by the image data processing means. It is good also as a structure further provided with the accounting data processing means which produces | generates the accounting data shown.

また、他の好ましい態様において、前記データ処理装置は、前記動作指導通知手段による前記通知の回数もしくは前記画像データ処理手段による前記加工処理の回数の少なくともいずれかに基づき、ユーザに対する課金額を示す課金データを生成する課金データ処理手段をさらに備える構成としてもよい。   In another preferable aspect, the data processing device is configured to charge a user with a charge amount based on at least one of the number of notifications by the motion instruction notification unit or the number of processings by the image data processing unit. It may be configured to further include billing data processing means for generating data.

かかる構成のデータ処理装置によれば、ユーザの利用状況に応じた適切な課金がなされる。   According to the data processing apparatus having such a configuration, an appropriate charge is made according to the usage status of the user.

また、本発明は、上記のデータ処理装置により行われる処理をコンピュータに実行させるプログラムを提供する。   The present invention also provides a program that causes a computer to execute processing performed by the data processing apparatus.

かかる構成のプログラムによれば、例えば汎用のコンピュータにより、ユーザをより楽しませる動画を示す画像データの生成が行われる。   According to the program having such a configuration, for example, a general-purpose computer generates image data indicating a moving image that makes the user more entertaining.

[1.第1実施形態]
以下、本発明の実施形態として、例えばゲームセンター等に配置可能なブースにおいて、ユーザが登場人物として参加する短編映画のビデオデータを自動生成するシステムを説明する。以下の説明において、画像とは動画および静止画の総称であり、画像データとは動画データおよび静止画データの総称である。
[1. First Embodiment]
Hereinafter, as an embodiment of the present invention, a system for automatically generating video data of a short movie in which a user participates as a character in a booth that can be arranged at a game center or the like will be described. In the following description, an image is a generic term for moving images and still images, and an image data is a generic term for moving image data and still image data.

[1.1.ビデオ生成システムの構成]
図1は、本発明の実施形態にかかるビデオ生成システム1がブースに設置された様子を示している。また、図2は、ビデオ生成システム1の構成を示している。ビデオ生成システム1は、ビデオ生成装置10、ビデオ生成装置10に対しユーザの指示を与えるためのコントローラ11、ユーザの声を拾音しその声を示す音信号をビデオ生成装置10に出力するとともに断続的に所定の周波数の超音波を発する機能を備えたマイク12aおよびマイク12b、ビデオ生成装置10から出力される音信号を増幅するアンプ13、アンプ13から出力される音信号を音に変換し出力するスピーカ14Lおよびスピーカ14R、撮像した画像を示す画像データを順次生成して出力するビデオカメラ15a〜d、ビデオカメラ15a〜dの位置および方向をモータ等により各々変化させるカメラ移動装置16a〜d、指定された色および明るさの光をユーザに照射する照明装置17a〜f、ビデオ生成装置10から出力される画像データに従い画像表示を行うディスプレイ18、超音波を受信し受信した超音波の波形を示す電気信号をビデオ生成装置10に出力する超音波受信器19a〜d、そしてビデオ生成装置10から出力されるデータをフラッシュメモリ等の記憶媒体に記憶するメディアドライブ20を備えている。また、ビデオ生成装置10はインターネット21に接続されている。
[1.1. Configuration of video generation system]
FIG. 1 shows a state in which a video generation system 1 according to an embodiment of the present invention is installed in a booth. FIG. 2 shows the configuration of the video generation system 1. The video generation system 1 includes a video generation device 10, a controller 11 for giving a user instruction to the video generation device 10, picks up a user's voice, outputs a sound signal indicating the voice to the video generation device 10, and is intermittent. In particular, the microphones 12a and 12b having a function of emitting ultrasonic waves of a predetermined frequency, the amplifier 13 that amplifies the sound signal output from the video generation device 10, and the sound signal output from the amplifier 13 is converted into sound and output. The speaker 14L and the speaker 14R, the video cameras 15a to 15d that sequentially generate and output image data indicating the captured images, and the camera moving devices 16a to 16d that change the positions and directions of the video cameras 15a to 15d by motors, respectively. Illumination devices 17a to 17f that irradiate a user with light of a specified color and brightness, and the video generation device 10. From the display 18 that displays an image according to the output image data, the ultrasonic receivers 19a to 19d that receive the ultrasonic wave and output an electrical signal indicating the waveform of the received ultrasonic wave to the video generating device 10, and the video generating device 10 A media drive 20 that stores output data in a storage medium such as a flash memory is provided. In addition, the video generation device 10 is connected to the Internet 21.

ビデオ生成システム1は、マイク、スピーカ、ビデオカメラ、カメラ移動装置、照明装置および超音波受信器をそれぞれ複数備えているが、以下、複数の同種の構成部を区別する必要がない場合には、単にマイク12のように呼ぶ。また、ビデオ生成システム1が備えるマイク12等の数は例示であり、超音波受信器19の数が4以上である点を除き、自由に変更可能である。さらに、例えばディスプレイ18を複数設けるなど、他の構成部の数も自由に変更可能である。   The video generation system 1 includes a plurality of microphones, speakers, video cameras, camera moving devices, illumination devices, and ultrasonic receivers. However, in the following, when it is not necessary to distinguish a plurality of similar components, It is simply called as the microphone 12. The number of microphones 12 and the like included in the video generation system 1 is an example, and can be freely changed except that the number of ultrasonic receivers 19 is four or more. Furthermore, the number of other components can be freely changed, for example, by providing a plurality of displays 18.

マイク12は、好ましくは小型のワイヤレスマイクであり、例えばクリップ等によりユーザの胸元等に容易に装着可能である。また、マイク12aおよびマイク12bは、各々、超音波を発生する超音波発生器121aおよび超音波発生器121bを備えており、上述したように断続的に超音波を発生するが、超音波発生器121aと超音波発生器121bの発生する超音波の周波数は互いに異なり、いずれの超音波がいずれのマイク12から発せされたものであるかの区別が可能となっている。超音波発生器121は、ブース内においてマイク12から発せられた超音波が超音波受信器19に到達するために要する時間よりも十分に長い時間間隔で、超音波の発生を繰り返す。より具体的には、例えば超音波発生器121は、0.5秒間、超音波を発した後、1秒間は超音波を発せず、その後、同様の処理を繰り返す。これは、後述するマイク位置算出部205の処理において、マイク12からの距離が異なる超音波受信器19a〜dの各々が次々と受信する超音波のうち、いずれが同じタイミングでマイク12から発せされたものであるかを容易に区別可能とするためである。   The microphone 12 is preferably a small wireless microphone, and can be easily attached to the user's chest, for example, with a clip or the like. The microphone 12a and the microphone 12b are each provided with an ultrasonic generator 121a and an ultrasonic generator 121b that generate ultrasonic waves, and intermittently generate ultrasonic waves as described above. The frequencies of the ultrasonic waves generated by 121a and the ultrasonic generator 121b are different from each other, and it is possible to distinguish which ultrasonic wave is emitted from which microphone 12. The ultrasonic generator 121 repeats the generation of ultrasonic waves at a time interval sufficiently longer than the time required for the ultrasonic waves emitted from the microphone 12 to reach the ultrasonic receiver 19 in the booth. More specifically, for example, the ultrasonic generator 121 emits ultrasonic waves for 0.5 seconds, does not emit ultrasonic waves for 1 second, and thereafter repeats the same processing. This is because, in the processing of the microphone position calculation unit 205, which will be described later, one of the ultrasonic waves received by the ultrasonic receivers 19a to 19d having different distances from the microphone 12 one after another is emitted from the microphone 12 at the same timing. This is because it is possible to easily distinguish whether it is a product.

続いて、ビデオ生成装置10の構成を説明する。ビデオ生成装置10は記憶部101、入出力I/F(Interface)102および制御部103を備えている。記憶部101は、制御部103による各種処理を指示するプログラムを予め記憶し、また制御部103により生成されるデータを一時的に記憶する。さらに、記憶部101は予め、複数のストーリデータ1010を記憶している。   Next, the configuration of the video generation device 10 will be described. The video generation device 10 includes a storage unit 101, an input / output I / F (Interface) 102, and a control unit 103. The storage unit 101 stores a program for instructing various processes by the control unit 103 in advance, and temporarily stores data generated by the control unit 103. Furthermore, the storage unit 101 stores a plurality of story data 1010 in advance.

ストーリデータ1010は、1つの短編映画の撮影におけるカメラワークの制御やバックグラウンドサウンド(背景音)の再生等を指示するとともに、台詞や演技指導の文字表示、演技指導の音声データの再生等を指示するデータである。本実施形態においては、ユーザはビデオ生成システム1により短編映画の撮影を行うにあたり、まず、複数の物語(以下、「ストーリ」と呼ぶ)の中から好みのものを選択する。そのため、記憶部101には予め、ユーザにより選択可能な複数のストーリの各々に対応するストーリデータ1010が記憶されているのである。以下、ストーリデータ1010の構成を説明する。   Story data 1010 instructs control of camera work and playback of background sound (background sound) in the shooting of one short movie, as well as instructions for display of speech and acting instruction text, reproduction of acting instruction voice data, etc. It is data to be. In this embodiment, when shooting a short movie by the video generation system 1, the user first selects a favorite one from a plurality of stories (hereinafter referred to as “story”). Therefore, the storage unit 101 stores in advance story data 1010 corresponding to each of a plurality of stories that can be selected by the user. Hereinafter, the configuration of the story data 1010 will be described.

図3は、記憶部101に記憶されるストーリデータ1010の構成を模式的に示している。図3においては、3つのストーリデータ1010、すなわちストーリデータ1010a〜cが例示されている。各々のストーリデータ1010は、管理データ、イベントシーケンスデータ群、ソースデータ群およびアレンジデータを含んでいる。   FIG. 3 schematically shows the configuration of the story data 1010 stored in the storage unit 101. FIG. 3 illustrates three story data 1010, that is, story data 1010a to 1010c. Each story data 1010 includes management data, event sequence data group, source data group, and arrangement data.

図4は、管理データの内容を例示している。管理データは、ストーリデータ1010の名称、ストーリにおいて登場するキャラクタ(以下、「キャラクタ」とは物語において登場する役のことを意味する)の数および属性を示すデータを含んでいる。   FIG. 4 illustrates the contents of the management data. The management data includes data indicating the name of the story data 1010, the number and attributes of characters appearing in the story (hereinafter, “character” means a role appearing in the story).

イベントシーケンスデータ群(図3参照)は、イベントシーケンスデータを格納したファイルの集合体である。イベントシーケンスデータとは、ストーリの進行に伴い実行されるべき各種処理を指示するイベントデータと、当該イベントデータにより指示される処理が実行されるべきタイミングを示すタイミングデータとからなるタイミング付イベントデータの集合である。本実施形態において、イベントシーケンスデータは以下の6つの種別に区分されるものとする。
(a)イベントシーケンスデータBS(バックグラウンドサウンド):背景音楽もしくは背景音の演奏を指示するイベントシーケンスデータ。
(b)イベントシーケンスデータBI(バックグラウンドイメージ):背景画像の表示を指示するイベントシーケンスデータ。
(c)イベントシーケンスデータCI(キャラクタイメージ):キャラクタを示す画像の表示を指示するイベントシーケンスデータ。
(d)イベントシーケンスデータDL(ダイアログ):台詞および演技指導の文字表示および音声再生を指示するイベントシーケンスデータ。
(e)イベントシーケンスデータME(マイクエフェクト):ユーザの音声に対するエフェクト処理の付加および効果音の再生を指示するイベントシーケンスデータ。
(f)イベントシーケンスデータCW(カメラワーク):ビデオカメラのフォーカスやズーム等の制御、ビデオカメラの位置および方向の制御、照明装置の動作制御およびそれらの制御に応じて、バックグラウンドイメージおよびキャラクタイメージに対し行われるべきサイズ変更、色調調整等の調整処理を指示するイベントシーケンスデータ。
The event sequence data group (see FIG. 3) is a collection of files storing event sequence data. Event sequence data refers to event data with timing consisting of event data indicating various processes to be executed as the story progresses, and timing data indicating timing at which the process specified by the event data should be executed. It is a set. In the present embodiment, the event sequence data is classified into the following six types.
(A) Event sequence data BS (background sound): event sequence data for instructing performance of background music or background sound.
(B) Event sequence data BI (background image): Event sequence data instructing display of a background image.
(C) Event sequence data CI (character image): Event sequence data for instructing display of an image showing a character.
(D) Event sequence data DL (dialog): Event sequence data instructing dialogue and performance guidance character display and sound reproduction.
(E) Event sequence data ME (microphone effect): Event sequence data instructing the addition of effect processing to the user's voice and the reproduction of the effect sound.
(F) Event sequence data CW (camera work): control of the focus and zoom of the video camera, control of the position and direction of the video camera, operation control of the illumination device, and the background image and character image according to those controls Event sequence data for instructing adjustment processing such as size change and color tone adjustment to be performed on the image.

また、本実施形態において、上記の各種イベントシーケンスデータを格納するファイルのファイル名は、以下の規則に従うものとする。
(a)イベントシーケンスデータBSを格納するファイルのファイル名:「BS####.ivt」(ただし、「#」は任意の自然数。以下同様。)。
(b)イベントシーケンスデータBIを格納するファイルのファイル名:「BI####.ivt」。
(c)イベントシーケンスデータCIを格納するファイルのファイル名:「CI####.ivt」。
(d)イベントシーケンスデータDLを格納するファイルのファイル名:「DL####.ivt」。
(e)イベントシーケンスデータMEを格納するファイルのファイル名:「ME####.ivt」。
(f)イベントシーケンスデータCWを格納するファイルのファイル名:「CW####.ivt」。
In the present embodiment, the file name of the file storing the various event sequence data is assumed to follow the following rules.
(A) File name of the file storing the event sequence data BS: “BS ####. Ivt” (where “#” is an arbitrary natural number, and so on).
(B) File name of the file storing the event sequence data BI: “BI ####. Ivt”.
(C) File name of the file storing the event sequence data CI: “CI ####. Ivt”.
(D) File name of the file that stores the event sequence data DL: “DL ####. Ivt”.
(E) File name of the file that stores the event sequence data ME: “ME ####. Ivt”.
(F) File name of the file storing the event sequence data CW: “CW ####. Ivt”.

図5は、イベントシーケンスデータBSの内容を例示している。上述したように、イベントシーケンスデータは複数のタイミング付イベントデータを含んでいる。タイミング付イベントデータに含まれるタイミングデータは、ストーリに含まれる各々の場面(以下、「シーン」と呼ぶ)の開始タイミングからの経過時間により、処理の実行タイミングを示している。この点はいずれの種類のイベントシーケンスデータにおいても同様である。   FIG. 5 illustrates the contents of the event sequence data BS. As described above, the event sequence data includes a plurality of event data with timing. The timing data included in the event data with timing indicates the execution timing of the process by the elapsed time from the start timing of each scene (hereinafter referred to as “scene”) included in the story. This is the same for any kind of event sequence data.

一方、タイミング付イベントデータに含まれるイベントデータは、イベントシーケンスデータの種類に応じてその内容が異なる。以下、それらのいくつかを例示するが、イベントデータの種類は以下に説明するものに限られないことは言うまでもない。   On the other hand, the content of event data included in event data with timing differs depending on the type of event sequence data. Hereinafter, some of them will be exemplified, but it goes without saying that the types of event data are not limited to those described below.

図5に示されるイベントシーケンスデータBSは、楽音の発音指示、音データの再生指示およびそれらの指示により発音される音に対するエフェクト付加の指示を行うことにより、背景音楽および背景音の演奏を指示する。例えば、イベントデータ[1ch:ノートオン:D4:74]は、第1のチャンネルに割り当てられた音色の音高D4の楽音を、音強74で発音することを指示している。ここで、チャンネルとは楽曲に含まれる個々の演奏パートのことである。また、イベントデータ[1ch:ディレイ:0.5秒]は、第1のチャンネルの音に対し0.5秒のディレイ効果を付加することを指示している。また、イベントデータ[3ch:再生:SS0514.wav]は、第3のチャンネルとして、音データファイル「SS0514.wav」に格納される音データの再生を行うことを指示している。   The event sequence data BS shown in FIG. 5 instructs the background music and the performance of the background sound by instructing the sound generation of the musical sound, the instruction to reproduce the sound data, and the instruction to add the effect to the sound generated by those instructions. . For example, the event data [1ch: note on: D4: 74] indicates that a musical tone having a tone pitch D4 assigned to the first channel is to be generated with a tone strength of 74. Here, the channel is an individual performance part included in the music. The event data [1ch: delay: 0.5 seconds] instructs to add a delay effect of 0.5 seconds to the sound of the first channel. In addition, event data [3ch: playback: SS0514. wav] instructs to reproduce the sound data stored in the sound data file “SS0514.wav” as the third channel.

図6は、イベントシーケンスデータBIの内容を例示している。本実施形態においてバックグラウンドイメージとは一般的な単層の背景画像を意味せず、キャラクタイメージ以外の画像を示す複層の画像を合成したものを意味する。すなわち、イベントシーケンスデータBIは、背景レイヤ、第1レイヤ、第2レイヤ・・・のように複数のレイヤに配置された画像を順次スーパーインポーズして得られる画像の表示を指示するデータである。   FIG. 6 illustrates the contents of the event sequence data BI. In the present embodiment, the background image does not mean a general single-layer background image, but means a composite of multiple-layer images indicating images other than the character image. That is, the event sequence data BI is data for instructing display of an image obtained by sequentially superimposing images arranged in a plurality of layers such as a background layer, a first layer, a second layer,. .

例えば、イベントデータ[背景レイヤ:表示:BP0815.pic]は、背景レイヤに静止画データファイル「BP0815.pic」に格納される静止画データに従った表示を行うことを指示している。また、イベントデータ[第1レイヤ:表示窓:(10,20)〜(120,180)]は、第1レイヤに、画面上の座標(10,20)と座標(120,180)を対角線の端点とする長方形の表示窓を開くことを指示している。表示窓が開かれた場合、そのレイヤに割り当てられた画像は表示窓の内側にのみ表示される。表示窓の外側は透過表示となるため、その部分には下位レイヤの画像が表示されることになる。また、イベントデータ[第1レイヤ:フェードイン:10秒]は、第1レイヤの表示窓に表示指定される画像に対し10秒間かけてフェードイン処理を施すことを指示している。また、イベントデータ[第1レイヤ:表示:BM0411.mov]は、第1レイヤの表示窓に、動画データファイル「BM0411.mov」に格納される動画データを再生して得られる画像を順次表示させることを指示している。   For example, event data [background layer: display: BP0815. pic] instructs the background layer to perform display according to the still image data stored in the still image data file “BP0815.pic”. In addition, the event data [first layer: display window: (10, 20) to (120, 180)] includes the coordinates (10, 20) and coordinates (120, 180) on the screen as diagonal lines on the first layer. It is instructing to open a rectangular display window as an end point. When the display window is opened, the image assigned to the layer is displayed only inside the display window. Since the outside of the display window is transmissive display, an image of a lower layer is displayed in that portion. Further, the event data [first layer: fade-in: 10 seconds] instructs to perform a fade-in process for 10 seconds on the image specified to be displayed on the display window of the first layer. Also, the event data [first layer: display: BM0411. mov] instructs the display window of the first layer to sequentially display images obtained by reproducing the moving image data stored in the moving image data file “BM0411.mov”.

また、イベントデータ[第2レイヤ:表示:さる.pic]は、第2レイヤの表示窓に、静止画データファイル「さる.pic」に格納される静止画データに従った表示を行うことを指示している。ここで「さる.pic」はキャラクタ「さる」の静止画データを格納するファイルであり、イベントデータ[第2レイヤ:表示:さる.pic]は通常、キャラクタ「さる」の画像表示を指示するイベントデータである。ただし、キャラクタ「さる」がユーザにより選択されたキャラクタである場合、ビデオ生成システム1はイベントデータ[第2レイヤ:表示:さる.pic]に従い、静止画データファイル「さる.pic」に格納される静止画データを用いる代わりに、撮像処理により得られるユーザの静止画データを用いる場合がある。その詳細については後述する。   Also, event data [second layer: display: monkey. pic] instructs the display window of the second layer to perform display according to the still image data stored in the still image data file “Saru.pic”. Here, “Saru.pic” is a file for storing still image data of the character “Saru”, and event data [second layer: display: mon. pic] is usually event data for instructing the image display of the character “monkey”. However, when the character “monkey” is the character selected by the user, the video generation system 1 uses the event data [second layer: display: monkey. pic], instead of using still image data stored in the still image data file “Saru.pic”, user still image data obtained by imaging processing may be used. Details thereof will be described later.

図7は、イベントシーケンスデータCIの内容を例示している。例えば、イベントデータ[さる:CR0486.mod]は、キャラクタ「さる」の画像を示すデータとして、モデリングデータファイル「CR0486.mod」に格納されているモデリングデータを用いることを指示している。モデリングデータとは、三次元仮想空間における立体(以下、「パーツ」と呼ぶ)の形状、パーツの色彩、隣接するパーツとの結合状態等を示すパーツデータの集合である。例えば、キャラクタ「さる」の画像を示すモデリングデータは、「さる」のボディ、頭、首、上腕、下腕、手、腰、太股、膝および足の各々を示すパーツデータから構成される。例えば頭を示すパーツデータには、そのパーツデータにより示される頭の下部中央が、他のパーツデータにより示される首の上部中央と点結合することを示すデータが含まれている。そのようなパーツデータに従い、個々のパーツの画像が三次元仮想空間内において相互に結合される結果、全体としてキャラクタの三次元画像が特定される。   FIG. 7 illustrates the contents of the event sequence data CI. For example, event data [Saru: CR0486. mod] instructs to use modeling data stored in the modeling data file “CR0486.mod” as data indicating the image of the character “monkey”. Modeling data is a set of part data indicating the shape of a solid (hereinafter referred to as “parts”) in a three-dimensional virtual space, the color of the parts, the connection state with adjacent parts, and the like. For example, the modeling data indicating the image of the character “Saru” is composed of part data indicating each of the body, head, neck, upper arm, lower arm, hand, waist, thigh, knee and foot of “Saru”. For example, the part data indicating the head includes data indicating that the lower center of the head indicated by the part data is point-connected to the upper center of the neck indicated by the other part data. According to such part data, the images of the individual parts are combined with each other in the three-dimensional virtual space, so that the three-dimensional image of the character is specified as a whole.

さらに、例えば頭のパーツデータは、目、眉、鼻、唇、耳等の小パーツを示すパーツデータの集合で構成される。このように、パーツデータが階層的に構成される結果、モデリングデータはキャラクタの画像の複雑な動きを表現することができる。   Furthermore, for example, the head part data is composed of a set of part data indicating small parts such as eyes, eyebrows, nose, lips, and ears. As described above, as a result of the hierarchical construction of the part data, the modeling data can express a complex motion of the character image.

モデリングデータに従いキャラクタの三次元画像を二次元の画面に表示するには、キャラクタの全体としてのサイズと、各パーツの三次元仮想空間における位置および方向が決定される必要がある。図7に例示されるイベントデータ[さる:サイズ5]は、キャラクタの全体のサイズとして、「1」〜「9」で示されるサイズのうち、「5」で示されるサイズを指定している。また、イベントデータ[さる:ボディ位置(15,43,23)]は、三次元仮想空間における座標(15,43,23)で示される位置に、キャラクタのボディの予め定められた代表点を配置することを指示している。さらに、イベントデータ[さる:ボディ方向(20度,5度,10度)]は、キャラクタのボディを、例えば三次元仮想空間における垂直方向を軸に上から見て時計回りに20度回転させ、ボディの正面方向が水平面から5度だけ上方に向くように傾け、さらにボディの正面方向を軸に正面から見て時計回りに10度だけ回転させることを指示している。   In order to display a 3D image of a character on a 2D screen according to modeling data, it is necessary to determine the overall size of the character and the position and direction of each part in the 3D virtual space. The event data [Saru: Size 5] illustrated in FIG. 7 designates the size indicated by “5” among the sizes indicated by “1” to “9” as the overall size of the character. The event data [Saru: body position (15, 43, 23)] arranges a predetermined representative point of the character body at the position indicated by the coordinates (15, 43, 23) in the three-dimensional virtual space. Instructed to do. Furthermore, the event data [Saru: body direction (20 degrees, 5 degrees, 10 degrees)] rotates the body of the character, for example, 20 degrees clockwise as viewed from above with the vertical direction in the three-dimensional virtual space as an axis. The body is tilted so that the front direction of the body is directed upward by 5 degrees from the horizontal plane, and is further instructed to rotate clockwise by 10 degrees when viewed from the front with the front direction of the body as an axis.

イベントデータ[第4レイヤ:さる:表示]は、上記のようにサイズ、位置および方向の決定された三次元仮想空間内のキャラクタ「さる」の画像を、二次元の画面の第4レイヤ上に表示することを指示している。   Event data [fourth layer: monkey: display] is an image of the character “monkey” in the three-dimensional virtual space whose size, position, and direction are determined as described above on the fourth layer of the two-dimensional screen. The display is instructed.

イベントデータ[さる:上腕方向(30度,45度,18度)]は、キャラクタ1の上腕の方向を(30度,45度,18度)で示される方向に変化させることを示している。これらの角度の意味は上記のボディの方向に関し説明したものと同様であるが、各々の角度に従った上腕の回転の軸は、上腕が結合しているボディの方向および結合点の位置により決定される。すなわち、イベントデータ[さる:上腕方向(30度,45度,18度)]は、上腕のボディに対する相対的な方向を示している。このように、イベントシーケンスデータCIは、各タイミングにおける各パーツの位置および方向を指示することにより、全体として動きのあるキャラクタの画像を示す。   Event data [monkey: upper arm direction (30 degrees, 45 degrees, 18 degrees)] indicates that the direction of the upper arm of the character 1 is changed to the direction indicated by (30 degrees, 45 degrees, 18 degrees). The meaning of these angles is the same as that described for the direction of the body above, but the axis of rotation of the upper arm according to each angle is determined by the direction of the body to which the upper arm is coupled and the position of the coupling point. Is done. That is, the event data [monkey: upper arm direction (30 degrees, 45 degrees, 18 degrees)] indicates a relative direction of the upper arm with respect to the body. As described above, the event sequence data CI indicates an image of a character having movement as a whole by instructing the position and direction of each part at each timing.

図8は、イベントシーケンスデータDLの内容を例示している。例えば、イベントデータ[演技指導:「後方中央からゆっくり前進して下さい。」]は、予め定められた画面内の演技指導の表示領域に、文字列「後方中央からゆっくり前進して下さい。」を表示することを指示している。本実施形態において「演技指導」とは、例えば「驚いた気持ちで演じて下さい。」といった演技内容に関する指導のみでなく、演技に伴う動作指示など、ユーザの動作に関する様々な情報をいう。また、イベントデータ[台詞:「さる:ああ、いい朝だなあ」]は、予め定められた画面内の台詞の表示領域に、文字列「さる:ああ、いい朝だなあ」を表示することを指示している。   FIG. 8 illustrates the contents of the event sequence data DL. For example, the event data [acting guidance: “Please advance slowly from the back center”] is a character string “Please advance slowly from the back center” in the display area of the performance instruction in the predetermined screen. The display is instructed. In the present embodiment, “acting guidance” refers to various pieces of information related to the user's motion, such as not only guidance regarding the content of the performance such as “Please perform with a surprised feeling” but also operational instructions accompanying the performance. In addition, the event data [line: “Saru: Ah, good morning”] displays the character string “Saru: Ah, good morning” in a predetermined display area of the screen. I am instructing.

また、例えばイベントデータ[再生:GS0441.wav]は、音データファイル「GS0441.wav」に格納される音データの再生を指示している。本実施形態において、「GS」で始まるファイル名の音データファイルに格納される音データは、演技指導の音声を示す音データである。すなわち、イベントデータ[再生:GS0441.wav]は、演技指導「後方中央からゆっくり前進して下さい。」の音声の再生を指示している。一方、「DS」で始まるファイル名の音データファイルに格納される音データは、台詞の音声を示す音データである。すなわち、例えばイベントデータ「再生:DS0796.wav」は、台詞「ああ、いい朝だなあ」を声優等が発声した際の音声の再生を指示している。   Further, for example, event data [reproduction: GS 0441. wav] instructs reproduction of sound data stored in the sound data file “GS0441.wav”. In the present embodiment, the sound data stored in the sound data file having a file name beginning with “GS” is sound data indicating the voice of the performance instruction. That is, event data [reproduction: GS 0441. wav] instructs the reproduction of the voice of the performance instruction “Please advance slowly from the rear center”. On the other hand, the sound data stored in the sound data file having a file name starting with “DS” is sound data indicating speech of speech. That is, for example, event data “reproduction: DS0796.wav” instructs reproduction of voice when a voice actor or the like utters the line “Oh, good morning”.

図9は、イベントシーケンスデータMEの内容を例示している。例えば、イベントデータ[再生:ES0971.wav]は、音データファイル「ES0971.wav」に格納される音データ、例えば鳥のさえずり等の効果音を示す音データの再生を指示している。また、イベントデータ[さる:パン2]は、キャラクタ「さる」の台詞の音像を、「1」〜「9」で示される左右方向の位置のうち「2」で示される位置に配置することを指示している。   FIG. 9 illustrates the contents of the event sequence data ME. For example, event data [reproduction: ES0971. wav] instructs reproduction of sound data stored in the sound data file “ES0971.wav”, for example, sound data indicating sound effects such as bird's chirping. The event data [Saru: Pan 2] arranges the sound image of the dialogue of the character “Saru” at the position indicated by “2” among the left and right positions indicated by “1” to “9”. I am instructing.

図10は、イベントシーケンスデータCWの内容を例示している。例えば、イベントデータ[カメラ1:ソース:右手]は、第1のカメラ(カメラ1)として、正面に向かって右手に配置されたカメラ、すなわちビデオカメラ15bを割り当てることを指示している。また、イベントデータ[カメラ1:位置2]はカメラ1に割り当てられたビデオカメラ15bを「1」〜「9」で示される位置のうち「2」で示される位置に移動(初期配置)することを指示している。また、イベントデータ[カメラ1:表示:第3レイヤ]はカメラ1に割り当てられたビデオカメラ15bの撮像処理により得られる画像データを画面における第3レイヤに表示することを指示している。   FIG. 10 illustrates the contents of the event sequence data CW. For example, the event data [camera 1: source: right hand] instructs to allocate a camera arranged on the right hand toward the front, that is, the video camera 15b, as the first camera (camera 1). Event data [Camera 1: Position 2] moves (initially arranges) the video camera 15b assigned to the camera 1 to the position indicated by "2" among the positions indicated by "1" to "9". Is instructing. Further, the event data [Camera 1: Display: Third Layer] instructs to display image data obtained by the imaging process of the video camera 15b assigned to the camera 1 on the third layer on the screen.

また、イベントデータ[照明3:黄:0→6:7秒]は第3の照明(照明3)の色に黄を設定し、照明の明るさの程度を「0」から「6」に7秒間かけて変化させることを指示している。本実施形態において、イベントシーケンスデータCWにおける照明1〜照明6は、それぞれ照明装置17a〜照明装置17fに対応するものとする。また、イベントデータ[カメラ1:移動:→5:3秒]はカメラ1に割り当てられたビデオカメラ15bの位置を現在の位置から「5」で示される位置に3秒間かけて移動することを指示している。さらに、イベントデータ[カメラ1:ズーム:→7:5秒]は、カメラ1に割り当てられたビデオカメラ15bのズーム倍率を現在の倍率から「7」で示される倍率に5秒間かけて変更することを指示している。   In the event data [illumination 3: yellow: 0 → 6: 7 seconds], the color of the third illumination (illumination 3) is set to yellow, and the brightness level of the illumination is changed from “0” to “6”. It is instructed to change over a second. In the present embodiment, the illuminations 1 to 6 in the event sequence data CW correspond to the illumination devices 17a to 17f, respectively. The event data [Camera 1: Movement: → 5: 3 seconds] indicates that the position of the video camera 15b assigned to the camera 1 is moved from the current position to the position indicated by “5” over 3 seconds. is doing. Furthermore, event data [Camera 1: Zoom: → 7: 5 seconds] changes the zoom magnification of the video camera 15b assigned to the camera 1 from the current magnification to the magnification indicated by “7” over 5 seconds. Is instructing.

上記のように、イベントシーケンスデータCWは、ビデオカメラ15の位置、方向およびズーム倍率変更等の各種動作を指示するとともに、照明装置17の各種動作を指示する。イベントシーケンスデータCWによるそれらの指示は、同時にバックグラウンドイメージおよびキャラクタイメージに対する補正処理の指示を意味している。例えば、照明装置17に対する色の変更を指示するイベントデータは、同時にバックグラウンドイメージおよびキャラクタイメージにおける色補正を指示している。同様に、照明装置17に対する明るさの変更を指示するイベントデータは、同時にバックグラウンドイメージおよびキャラクタイメージにおける明るさ補正を指示している。   As described above, the event sequence data CW instructs various operations such as changing the position and direction of the video camera 15 and the zoom magnification, and also instructs various operations of the illumination device 17. These instructions by the event sequence data CW simultaneously mean instructions for correction processing for the background image and the character image. For example, the event data instructing the lighting device 17 to change the color simultaneously instructs color correction in the background image and the character image. Similarly, the event data for instructing the lighting device 17 to change the brightness simultaneously instructs the brightness correction in the background image and the character image.

また、ビデオカメラ15の位置や方向の変更を指示するイベントデータは、同時に、バックグラウンドイメージを異なる視点から見た同じ画像を示すように変形する処理を指示している。また、ビデオカメラ15のズーム倍率やフォーカスの程度の変更を指示するイベントデータは、同時に、バックグラウンドイメージおよびキャラクタイメージに拡大率や鮮明さの変更処理を加えることを指示している。その際、例えばビデオカメラ15のフォーカスを強くするイベントデータは、ビデオカメラ15の撮像対象より奥行き方向においてより奥に位置するバックグラウンドイメージのフォーカスを弱くすると同時に、ビデオカメラ15の撮像対象と奥行き方向において同程度の位置に配されるキャラクタイメージのフォーカスを強くすることを意味する。以上がイベントシーケンスデータ群に含まれる各種イベントシーケンスデータである。   In addition, the event data for instructing the change of the position and direction of the video camera 15 simultaneously instructs a process of transforming the background image to show the same image viewed from different viewpoints. In addition, the event data instructing to change the zoom magnification and the focus level of the video camera 15 simultaneously instruct to apply an enlargement ratio and clearness changing process to the background image and the character image. At this time, for example, the event data that increases the focus of the video camera 15 weakens the focus of the background image located deeper in the depth direction than the imaging target of the video camera 15 and at the same time the imaging target of the video camera 15 and the depth direction. Means to increase the focus of the character image arranged at the same position. The above is various event sequence data included in the event sequence data group.

ストーリデータ1010(図3参照)に含まれるソースデータ群は、上述した各種イベントシーケンスデータにより再生等の指示がなされる静止画データ、動画データ、音データおよびモデリングデータ(以下、これらを総称して「ソースデータ」と呼ぶ)を格納する各種ファイルの集合である。   The source data group included in the story data 1010 (see FIG. 3) is still image data, moving image data, sound data, and modeling data (hereinafter collectively referred to as reproduction data) that are instructed to be reproduced by the various event sequence data described above. It is a set of various files that store “source data”.

ストーリデータ1010に含まれるアレンジデータは、ストーリにおいて用いられるべきイベントシーケンスデータのファイル名を示すデータである。本実施形態において、ユーザは複数のストーリの中から好みのものを選択した後、さらに、選択したストーリにおいて用いられる背景音楽、背景画像、台詞等を複数の脚色(以下、「アレンジ」と呼ぶ)の中から各々選択することができる。そのため、アレンジデータは、イベントシーケンスデータの種別の各々について、選択可能なイベントシーケンスデータのファイル名を複数、含んでいる。   Arrangement data included in the story data 1010 is data indicating a file name of event sequence data to be used in the story. In the present embodiment, after the user selects a favorite one from a plurality of stories, the background music, background image, dialogue, etc. used in the selected story are further provided with a plurality of dramas (hereinafter referred to as “arrange”). Each can be selected from the following. Therefore, the arrangement data includes a plurality of selectable event sequence data file names for each type of event sequence data.

図11は、アレンジデータの内容をストーリにおける時間軸を横方向にとって模式的に示した図である。図11における縦線はストーリに含まれる各シーンの区切りを示しており、各縦線の上部に示される[0h03m17s]等のデータは、ストーリ全体の開始タイミングを基準とした場合の各区切りのタイミングを示している。また、それらのタイミングを示すデータの間に示される「シーン1:出会い」等は、シーン名称を示すデータである。   FIG. 11 is a diagram schematically showing the contents of the arrangement data with the time axis in the story in the horizontal direction. The vertical lines in FIG. 11 indicate the breaks of each scene included in the story, and the data such as [0h03m17s] shown at the top of each vertical line is the timing of each break when the start timing of the entire story is used as a reference. Is shown. “Scene 1: Encounter” or the like shown between the data indicating the timings is data indicating the scene name.

図11において、各データ行は、イベントシーケンスデータの種別の各々に対応するデータを示している。例えば、「BS」で示されるデータ行は、イベントシーケンスデータBSに関しユーザにより選択可能なイベントシーケンスデータを示すデータである。各データ行は、各シーンについて、イベントシーケンスデータのファイル名にアレンジ名称を対応付けたデータを複数、含んでいる。例えば、図11に例示のアレンジデータは、シーン1において用いられるイベントシーケンスデータBSとして、ユーザがアレンジ名称「爽やか」に対応付けられた「BS0814.ivt」、アレンジ名称「ノスタルジック」に対応付けられた「BS0571.ivt」等の中からいずれかを選択可能であることを示している。   In FIG. 11, each data row indicates data corresponding to each type of event sequence data. For example, the data row indicated by “BS” is data indicating event sequence data selectable by the user with respect to the event sequence data BS. Each data row includes a plurality of data in which the arrangement name is associated with the file name of the event sequence data for each scene. For example, the arrangement data illustrated in FIG. 11 is associated with “BS0814.ivt” in which the user is associated with the arrangement name “fresh” and the arrangement name “nostalgic” as the event sequence data BS used in the scene 1. This indicates that any one of “BS0571.ivt” can be selected.

ところで、図11において、例えばイベントシーケンスデータBSについては、シーン毎に異なるアレンジ名称の組合せが示されている。従って、ユーザはイベントシーケンスデータBSについて、シーン毎に異なるアレンジを選択することができる。一方、例えばイベントシーケンスデータBIについては、各シーンに同じアレンジ名称の組合せが示されている。従って、ユーザはイベントシーケンスデータBIについては、ストーリ全体を通じて1つのアレンジを選択することになる。   In FIG. 11, for example, for event sequence data BS, combinations of arrangement names that differ for each scene are shown. Therefore, the user can select a different arrangement for the event sequence data BS for each scene. On the other hand, for the event sequence data BI, for example, the same arrangement name combination is shown for each scene. Therefore, the user selects one arrangement for the event sequence data BI throughout the entire story.

また、図11において、例えばイベントシーケンスデータMEとしては、イベントシーケンスデータDLについて選択可能なアレンジ名称の各々に関し、複数のアレンジ名称が示されている。従って、ユーザはイベントシーケンスデータDLに関しいずれのアレンジを選択したかにより、イベントシーケンスデータMEに関し選択可能なアレンジの組合せが変化することになる。後述するように、ユーザにより各種イベントシーケンスデータの各々について好みのアレンジ名称が選択されることにより、選択されたアレンジ名称に対応付けられたイベントシーケンスデータが特定され、そのように特定されたイベントシーケンスデータがビデオ生成システム1において用いられることになる。以上がアレンジデータである。   In FIG. 11, for example, as the event sequence data ME, a plurality of arrangement names are shown for each arrangement name that can be selected for the event sequence data DL. Therefore, the combination of arrangements that can be selected for the event sequence data ME changes depending on which arrangement the user has selected for the event sequence data DL. As will be described later, when the user selects a favorite arrangement name for each of the various event sequence data, event sequence data associated with the selected arrangement name is specified, and the event sequence thus specified is specified. Data will be used in the video generation system 1. The above is arrangement data.

図2に戻り、ビデオ生成装置10の構成説明を続ける。入出力I/F102は、ビデオ生成装置10に含まれる記憶部101および制御部103がコントローラ11、マイク12、アンプ13、ビデオカメラ15、カメラ移動装置16、照明装置17、ディスプレイ18、超音波受信器19、メディアドライブ20およびインターネット21との間でアナログ信号およびデジタル信号の入出力を行うためのインタフェースである。また、入出力I/F102はA/D(Analog to Digital)コンバータおよびD/A(Digital to Analog)コンバータを備えており、必要に応じてアナログ信号とデジタル信号との間の変換を行う。   Returning to FIG. 2, the description of the configuration of the video generation apparatus 10 will be continued. The input / output I / F 102 includes a storage unit 101 and a control unit 103 included in the video generation device 10, a controller 11, a microphone 12, an amplifier 13, a video camera 15, a camera moving device 16, a lighting device 17, a display 18, and ultrasonic reception. This is an interface for inputting / outputting analog signals and digital signals between the device 19, the media drive 20 and the Internet 21. The input / output I / F 102 includes an A / D (Analog to Digital) converter and a D / A (Digital to Analog) converter, and performs conversion between an analog signal and a digital signal as necessary.

制御部103は、ストーリデータ1010に従い、バックグラウンドサウンド、効果音、台詞のお手本音声および演技指導の音声を再生し、それらの再生音およびマイク12により拾音された音を示す音声データに各種加工処理を施し、その結果得られる音データをアンプ13に出力する。また、制御部103は、ストーリデータ1010に従い、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御を行う。また、制御部103は、ストーリデータ1010に従い、バックグラウンドイメージおよびキャラクタイメージを示す画像データを生成し、生成した画像データとビデオカメラ15により撮像された画像を示す画像データに各種加工処理を施し、その結果得られる画像データをディスプレイ18に出力する。さらに、制御部103は、加工処理を施して得られる音データおよび画像データをビデオデータとして記憶部101に記憶させる。   In accordance with the story data 1010, the control unit 103 reproduces background sound, sound effects, speech model speech, and acting instruction speech, and performs various processes on the reproduced sound and sound data indicating the sound picked up by the microphone 12. The sound data obtained as a result is output to the amplifier 13. In addition, the control unit 103 performs operation control of the video camera 15, the camera moving device 16, and the illumination device 17 in accordance with the story data 1010. Further, the control unit 103 generates image data indicating a background image and a character image according to the story data 1010, and performs various types of processing on the generated image data and image data indicating an image captured by the video camera 15, The resulting image data is output to the display 18. Further, the control unit 103 causes the storage unit 101 to store sound data and image data obtained by performing the processing as video data.

制御部103の構成部は、音データの処理に関する音データブロック201、画像データの処理に関する画像データブロック202、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御に関する動作制御ブロック203、イベントシーケンスデータに従い音データブロック201、画像データブロック202および動作制御ブロック203に対しイベントデータの送信を行うイベントデータ再生部204、超音波受信器19から入力される信号に従いマイク12の各々の位置を算出するマイク位置算出部205およびユーザに対する課金に関する処理を行う課金データ処理部206に区分される。また、制御部103は発振器(図示略)を備えており、制御部103の構成部の処理は発振器により生成されるクロック信号に基づき同期がとられている。   The configuration unit of the control unit 103 includes a sound data block 201 related to sound data processing, an image data block 202 related to image data processing, an operation control block 203 related to operation control of the video camera 15, the camera moving device 16, and the illumination device 17, an event Each position of the microphone 12 is calculated according to a signal input from the ultrasonic data receiver 19 and an event data reproduction unit 204 that transmits event data to the sound data block 201, the image data block 202, and the operation control block 203 according to the sequence data. The microphone position calculation unit 205 and the charging data processing unit 206 that performs processing related to charging for the user are classified. The control unit 103 includes an oscillator (not shown), and the processing of the components of the control unit 103 is synchronized based on a clock signal generated by the oscillator.

音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い様々な楽音を示す音データを出力する音源部2011と、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群(図3参照)に含まれる音データの再生を行う音データ再生部2012を備えている。また、音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い、マイク12により拾音された音を示す音データと音源部2011および音データ再生部2012から送信される音データの各々に各種エフェクト処理等の加工処理を施した後、それらをミキシング処理して得られる音データをアンプ13に対し出力する音データ加工処理部2013を備えている。   The sound data block 201 includes a sound source unit 2011 that outputs sound data indicating various musical sounds according to event data transmitted from the event data reproducing unit 204, and a source of the story data 1010 according to event data transmitted from the event data reproducing unit 204. A sound data reproduction unit 2012 that reproduces sound data included in the data group (see FIG. 3) is provided. The sound data block 201 includes sound data indicating the sound picked up by the microphone 12 and sound data transmitted from the sound source unit 2011 and the sound data reproducing unit 2012 according to the event data transmitted from the event data reproducing unit 204. A sound data processing unit 2013 is provided for outputting to the amplifier 13 sound data obtained by performing processing such as various effect processing on each of them and then mixing them.

画像データブロック202は、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群に含まれる動画データを再生する動画データ再生部2021と、イベントデータ再生部204から送信されるイベントデータに従い台詞および演技指導の文字表示画面を示す画像データを順次生成する文字画面生成部2022と、イベントデータ再生部204から送信されるイベントデータに従いストーリデータ1010のソースデータ群に含まれるモデリングデータに基づきキャラクタイメージを示す画像データを順次生成するレンダリング処理部2023と、ビデオカメラ15から入力される画像データから特定部分のみを選択するトリミング処理部2024を備えている。   The image data block 202 includes a moving image data reproducing unit 2021 that reproduces moving image data included in the source data group of the story data 1010 according to the event data transmitted from the event data reproducing unit 204, and an event transmitted from the event data reproducing unit 204. Character data generating unit 2022 that sequentially generates image data indicating a character display screen for dialogue and acting guidance according to the data, and modeling data included in the source data group of story data 1010 according to the event data transmitted from event data reproducing unit 204 A rendering processing unit 2023 that sequentially generates image data indicating a character image based on the image data and a trimming processing unit 2024 that selects only a specific portion from the image data input from the video camera 15 are provided.

レンダリング処理部2023により行われるモデリングデータに基づく画像データの生成処理は、一般にレンダリング処理と呼ばれる。レンダリング処理においては、三次元仮想空間内において、モデリングデータにより示される形状および素材を備えるパーツに対し1以上の光源から光を投じた際に所定位置の視点から見える画像を示す画像データが、シミュレーション演算により生成される。レンダリング処理部2023は、そのようなレンダリング処理により生成した画像データを画像データ加工処理部2025に送信する。   Image data generation processing based on modeling data performed by the rendering processing unit 2023 is generally called rendering processing. In rendering processing, image data representing an image seen from a viewpoint at a predetermined position when light is emitted from one or more light sources to a part having a shape and material indicated by modeling data in a three-dimensional virtual space is simulated. Generated by calculation. The rendering processing unit 2023 transmits the image data generated by such rendering processing to the image data processing processing unit 2025.

トリミング処理部2024はまず、ビデオカメラ15から入力される画像データから、ユーザの画像部分を選択する処理を行う。具体的には、トリミング処理部2024は、ビデオカメラ15から入力される画像データのうち外周位置のデータをブース(図1参照)の壁の色を示すデータと判断し、そのデータおよびそのデータに近似するデータが、画像の外周部分から中心に向かい連続する範囲を特定する。そのようにして特定される領域はブースの壁を示す背景領域である。トリミング処理部2024は、例えば背景領域のデータを削除する。その結果、ユーザの画像部分のみを取り出した画像を示す画像データ(以下、「ユーザ画像データ」と呼ぶ)が生成される。   The trimming processing unit 2024 first performs a process of selecting a user's image portion from image data input from the video camera 15. Specifically, the trimming processing unit 2024 determines that the data of the outer peripheral position among the image data input from the video camera 15 is data indicating the color of the wall of the booth (see FIG. 1), and the data and the data are included in the data. A range in which approximate data continues from the outer peripheral portion of the image toward the center is specified. The area so identified is the background area that represents the booth wall. The trimming processing unit 2024 deletes the data of the background area, for example. As a result, image data (hereinafter referred to as “user image data”) indicating an image obtained by extracting only the image portion of the user is generated.

トリミング処理部2024は、さらに、ユーザ画像データからマーカの画像部分を選択する処理を行う。マーカとは、ユーザの画像における各部位の位置をビデオ生成装置10に特定させるために、ユーザが手足等に装着する特定色のブレスレット、アンクレット等である。マーカには、ビデオ生成装置10がユーザの衣服等と混同しないように、またブースの照明が暗い場合においても認識可能なように、例えば蛍光色の蓄光塗料が塗布されている。また、ビデオ生成装置10がユーザの手足等のいずれに装着されたマーカであるかを認識可能なように、例えば右手首のマーカは黄色、左手首のマーカはピンク色等、各部位用のマーカ色が定められている。トリミング処理部2024は、ユーザ画像データから、予め登録されたマーカ色と同色もしくは近似色を示すデータを抽出する。そのように抽出されたデータは、マーカ部分を示す画像データ(以下、「マーカ画像データ」と呼ぶ)である。   The trimming processing unit 2024 further performs a process of selecting the image portion of the marker from the user image data. The marker is a bracelet, anklet, or the like of a specific color that the user wears on a limb or the like in order to cause the video generation device 10 to specify the position of each part in the user's image. The marker is coated with, for example, fluorescent color phosphorescent paint so that the video generation device 10 is not confused with the user's clothes or the like and can be recognized even when the booth is dark. In addition, for example, the right wrist marker is yellow and the left wrist marker is pink so that the video generation apparatus 10 can recognize which marker is attached to the user's limb or the like. The color is defined. The trimming processing unit 2024 extracts data indicating the same or approximate color as the marker color registered in advance from the user image data. The data thus extracted is image data indicating a marker portion (hereinafter referred to as “marker image data”).

画像データブロック202は、さらに、画像データ加工処理部2025を備えている。画像データ加工処理部2025は、イベントデータ再生部204から送信されるイベントデータに従い、動画データ再生部2021、文字画面生成部2022およびレンダリング処理部2023の各々から送信される画像データ、そしてストーリデータ1010のソースデータ群に含まれる静止画データに各種エフェクト処理等の加工処理を施した後、それらを合成処理して得られる画像データをディスプレイ18に送信する。画像の合成処理には、例えば、ある画像に別の画像をスーパーインポーズする処理や、ある画像から別の画像が透けて見えるように両画像を合成する処理が含まれる。   The image data block 202 further includes an image data processing unit 2025. The image data processing unit 2025 follows the event data transmitted from the event data reproduction unit 204, the image data transmitted from each of the moving image data reproduction unit 2021, the character screen generation unit 2022, and the rendering processing unit 2023, and the story data 1010. After processing various effects such as effect processing on the still image data included in the source data group, image data obtained by combining them is transmitted to the display 18. The image composition process includes, for example, a process of superimposing another image on an image and a process of compositing both images so that another image can be seen through the image.

動作制御ブロック203は、イベントデータ再生部204から送信されるイベントデータに従い、ビデオカメラ15、カメラ移動装置16および照明装置17の各々の動作制御を行うカメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。   The operation control block 203 includes a camera operation control unit 2031, a movement operation control unit 2032, and a movement operation control unit 2032 that perform operation control of the video camera 15, the camera moving device 16, and the lighting device 17 in accordance with event data transmitted from the event data reproducing unit 204. An illumination operation control unit 2033 is provided.

イベントデータ再生部204は、ストーリデータ1010に含まれるアレンジデータにより示されるイベントシーケンスデータのうち、ユーザにより選択されたアレンジ名称に対応するものを用いて、イベントシーケンスデータに含まれるタイミングデータにより示されるタイミングで、各々のイベントデータを、その内容に応じて以下のように各構成部に送信する。   The event data reproducing unit 204 uses the data corresponding to the arrangement name selected by the user among the event sequence data indicated by the arrangement data included in the story data 1010, and is indicated by the timing data included in the event sequence data. At the timing, each event data is transmitted to each component as follows according to the contents.

(a)イベントシーケンスデータBSに含まれる楽音の発音を指示するイベントデータ→音源部2011。
(b)イベントシーケンスデータBS、イベントシーケンスデータDLおよびイベントシーケンスデータMEに含まれる音データの再生を指示するイベントデータ→音データ再生部2012。
(c)イベントシーケンスデータBSおよびイベントシーケンスデータMEに含まれる音に対するエフェクト処理を指示するイベントデータ→音データ加工処理部2013。
(d)イベントシーケンスデータBIに含まれる動画データの再生を指示するイベントデータ→動画データ再生部2021。
(e)イベントシーケンスデータDLに含まれる文字列の表示を指示するイベントデータ→文字画面生成部2022。
(f)イベントシーケンスデータCIに含まれるモデリングデータの指定および各パーツデータの位置、方向を指示するイベントシーケンスデータ→レンダリング処理部2023。
(g)イベントシーケンスデータBI、イベントシーケンスデータCIに含まれるレイヤ指定に関するイベントデータ、イベントシーケンスデータBIに含まれる静止画表示を指示するイベントデータ、イベントシーケンスデータCIおよびイベントシーケンスデータCWに含まれる画像に対するエフェクト処理、カメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータ→画像データ加工処理部2025。
(h)イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータ→レンダリング処理部2023。
(i)イベントシーケンスデータCWに含まれるカメラ動作制御を指示するイベントデータ→カメラ動作制御部2031。
(j)イベントシーケンスデータCWに含まれるカメラ位置を指示するイベントデータ→移動動作制御部2032。
(k)イベントシーケンスデータCWに含まれる照明装置動作制御を指示するイベントデータ→照明動作制御部2033。
(A) Event data instructing sound generation included in event sequence data BS → sound source unit 2011.
(B) Event data → sound data reproduction unit 2012 for instructing reproduction of sound data included in the event sequence data BS, event sequence data DL, and event sequence data ME.
(C) Event data → sound data processing unit 2013 for instructing effect processing for sounds included in the event sequence data BS and the event sequence data ME.
(D) Event data → video data playback unit 2021 that instructs playback of video data included in the event sequence data BI.
(E) Event data → character screen generation unit 2022 for instructing display of a character string included in the event sequence data DL.
(F) Event sequence data instructing designation of modeling data included in the event sequence data CI and the position and direction of each part data → rendering processing unit 2023.
(G) Event sequence data BI, event data related to layer designation included in event sequence data CI, event data instructing still image display included in event sequence data BI, image included in event sequence data CI and event sequence data CW Event data for instructing effect processing, camera operation control, camera position, and illumination device operation control for image data processing unit 2025.
(H) Event data indicating the camera operation control and camera position included in the event sequence data CW → the rendering processing unit 2023.
(I) Event data instructing camera operation control included in the event sequence data CW → camera operation control unit 2031.
(J) Event data indicating the camera position included in the event sequence data CW → the movement operation control unit 2032.
(K) Event data instructing lighting device operation control included in the event sequence data CW → lighting operation control unit 2033.

上記のように、イベントシーケンスデータCWに含まれるカメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータは、それぞれカメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033に送信されるとともに、画像データ加工処理部2025にも送信される。これは、画像データ加工処理部2025が、カメラのズーム倍率、フォーカスの強さ、カメラ位置、カメラ方向、照明の色、照明の強さ等に応じて、バックグラウンドイメージやキャラクタイメージに対し、サイズ変更処理、ぼかし処理、変形処理、色調整処理、明るさ調整処理等を行うためである。また、イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータは、レンダリング処理部2023にも送信される。これは、レンダリング処理部2023が、カメラのズーム倍率、カメラ位置およびカメラ方向に照らし、トリミング処理部2024から受信する画像データのいずれの部分がいずれのユーザの画像を示すものであるかを特定するためである。   As described above, the event data instructing the camera operation control, the camera position, and the illumination device operation control included in the event sequence data CW is transmitted to the camera operation control unit 2031, the movement operation control unit 2032, and the illumination operation control unit 2033, respectively. At the same time, it is also transmitted to the image data processing unit 2025. This is because the image data processing unit 2025 applies a size to the background image or character image according to the zoom magnification of the camera, the focus strength, the camera position, the camera direction, the illumination color, the illumination intensity, etc. This is to perform change processing, blur processing, deformation processing, color adjustment processing, brightness adjustment processing, and the like. Further, the event data instructing the camera operation control and the camera position included in the event sequence data CW is also transmitted to the rendering processing unit 2023. In this case, the rendering processing unit 2023 identifies which part of the image data received from the trimming processing unit 2024 represents an image of which user in light of the zoom magnification, camera position, and camera direction of the camera. Because.

マイク位置算出部205は、ブース(図1参照)の上方に配置された超音波受信器19a〜dの各々から超音波を示す音データを受信する。超音波受信器19a〜dにより拾音される超音波は、マイク12aおよびマイク12bの各々に備えられた超音波発生器121aおよび超音波発生器121bから断続的に発せられる超音波である。上述したように、超音波発生器121aおよび超音波発生器121bの各々から発せられる超音波は互いに周波数が異なっており、マイク位置算出部205は、超音波受信器19a〜dの各々から、2つの異なる周波数の超音波が混合した音を示す音データを受信する。そこでマイク位置算出部205は、2つの各々の周波数に関し、その周波数を含み他の周波数を含まない周波数帯の成分のみを通過させるバンドパスフィルタで超音波受信器19から受信した音データを濾波する。そのような濾波処理により得られる音を示す音データは、それぞれ、超音波発生器121aから発せられた超音波を示すデータおよび超音波発生器121bから発せられた超音波を示すデータである。   The microphone position calculation unit 205 receives sound data indicating ultrasonic waves from each of the ultrasonic receivers 19a to 19d disposed above the booth (see FIG. 1). The ultrasonic waves picked up by the ultrasonic receivers 19a to 19d are ultrasonic waves emitted intermittently from the ultrasonic generator 121a and the ultrasonic generator 121b provided in each of the microphone 12a and the microphone 12b. As described above, the ultrasonic waves emitted from each of the ultrasonic generator 121a and the ultrasonic generator 121b have different frequencies from each other, and the microphone position calculation unit 205 receives 2 from each of the ultrasonic receivers 19a to 19d. Sound data indicating a sound in which ultrasonic waves of two different frequencies are mixed is received. Therefore, the microphone position calculation unit 205 filters the sound data received from the ultrasonic receiver 19 with a band-pass filter that passes only the components of the frequency band that includes that frequency and does not include other frequencies for each of the two frequencies. . The sound data indicating the sound obtained by such filtering processing is data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and data indicating the ultrasonic wave emitted from the ultrasonic generator 121b, respectively.

マイク位置算出部205は、超音波受信器19a〜dの各々から受信した音データに関し、上記の濾波処理を行うことにより、以下のように8組のデータを生成する。
(a)超音波発生器121aから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データaa」と呼ぶ)。
(b)超音波発生器121aから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データab」と呼ぶ)。
(c)超音波発生器121aから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データac」と呼ぶ)。
(d)超音波発生器121aから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データad」と呼ぶ)。
(e)超音波発生器121bから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データba」と呼ぶ)。
(f)超音波発生器121bから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データbb」と呼ぶ)。
(g)超音波発生器121bから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データbc」と呼ぶ)。
(h)超音波発生器121bから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データbd」と呼ぶ)。
The microphone position calculation unit 205 performs the above filtering process on the sound data received from each of the ultrasonic receivers 19a to 19d, thereby generating eight sets of data as follows.
(A) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19a (referred to as “ultrasonic data aa”).
(B) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19b (referred to as “ultrasonic data ab”).
(C) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19c (referred to as “ultrasonic data ac”).
(D) Data indicating an ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19d (referred to as “ultrasonic data ad”).
(E) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19a (referred to as “ultrasonic data ba”).
(F) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19b (referred to as “ultrasonic data bb”).
(G) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19c (referred to as “ultrasonic data bc”).
(H) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19d (referred to as “ultrasonic data bd”).

超音波データaa、ab、acおよびadは、同じ超音波を示すデータであるが、マイク12aに設けられた超音波発生器121aと、超音波受信器19a〜dの各々との距離が異なるため、マイク位置算出部205がそれらを受信するタイミングが異なる。超音波データba、bb、bcおよびbdについても同様である。マイク位置算出部205は、このタイミングの差異に基づき、マイク12aおよびbのブースにおける位置を算出する。マイク12aおよびbのブースにおける位置の算出方法は同じであるため、以下、マイク12aの位置を算出する場合を例として、その算出方法を例示する。   The ultrasonic data aa, ab, ac, and ad are data indicating the same ultrasonic wave, but the distance between the ultrasonic generator 121a provided in the microphone 12a and each of the ultrasonic receivers 19a to 19d is different. The timing at which the microphone position calculation unit 205 receives them is different. The same applies to the ultrasonic data ba, bb, bc and bd. The microphone position calculation unit 205 calculates the positions of the microphones 12a and 12b in the booth based on the timing difference. Since the calculation method of the positions of the microphones 12a and b in the booth is the same, the calculation method will be exemplified below by taking the case of calculating the position of the microphone 12a as an example.

図12はブースを上方から見た図である。図12においては、超音波受信器19a〜dの各々の位置が点A(0,0,r)、点B(0,q,r)、点C(p,q,r)および点D(p,0、r)として示されている。また、マイク12aの位置が点X(x,y,z)として示されている。ここで、p、qおよびrはブースの幅、奥行きおよび高さを示す定数(メートル)である。一方、x、yおよびzはマイク12aの座標を示す変数(メートル)である。ここで、以下の方程式が成立する。ただし、tA、tB、tCおよびtDは、それぞれ点Xから発せられた音が点A〜Dの各々に達するまでに要する時間(秒)を示し、Sは空気中を音が伝播する速さ(メートル/秒)を示す。

Figure 2006217183
FIG. 12 is a view of the booth as viewed from above. In FIG. 12, the positions of the ultrasonic receivers 19a to 19d are point A (0, 0, r), point B (0, q, r), point C (p, q, r) and point D ( p, 0, r). Further, the position of the microphone 12a is shown as a point X (x, y, z). Here, p, q, and r are constants (meters) indicating the width, depth, and height of the booth. On the other hand, x, y and z are variables (meters) indicating the coordinates of the microphone 12a. Here, the following equation holds. Where t A , t B , t C and t D indicate the time (seconds) required for the sound emitted from the point X to reach each of the points A to D, and S propagates the sound in the air. Indicates the speed (meter / second).
Figure 2006217183

ところで、既に述べたように、超音波発生器121は、例えば0.5秒間、超音波を発し続けた後、1秒間、超音波を発しない。従って、マイク位置算出部205は、超音波受信器19a〜dのいずれからも超音波データを受け取らない期間が約1秒間続いた後、超音波受信器19a〜dの各々から約0.5秒間の超音波データaa〜adを受信する。そのように受信される超音波データは超音波発生器121aから発せられた同じ超音波を示すデータである。マイク位置算出部205は、例えば超音波データaaの値の立ち上がりタイミング、すなわち超音波データaaの値がノイズ成分のレベルを上回る所定の値を下から上に横切って変化する先頭データの受信タイミングを基準とし、超音波データab〜adの各々の立ち上がりタイミングまでの時間(秒)をt1、t2およびt3として算出する。 By the way, as already described, the ultrasonic generator 121 does not emit ultrasonic waves for 1 second after continuing to emit ultrasonic waves for 0.5 seconds, for example. Therefore, the microphone position calculation unit 205 continues for about 0.5 second from each of the ultrasonic receivers 19a to 19d after the period in which the ultrasonic data is not received from any of the ultrasonic receivers 19a to 19d continues for about 1 second. The ultrasonic data aa to ad are received. The ultrasonic data received as such is data indicating the same ultrasonic wave emitted from the ultrasonic generator 121a. For example, the microphone position calculation unit 205 sets the rising timing of the value of the ultrasonic data aa, that is, the reception timing of the leading data that changes across the predetermined value in which the value of the ultrasonic data aa exceeds the level of the noise component from the bottom to the top. a reference to calculate the time until the rise timing of each of the ultrasound data ab~ad (seconds) as t 1, t 2 and t 3.

例えば、点Xが図12に示される位置にある場合、以下の方程式が成立する。

Figure 2006217183
For example, when the point X is at the position shown in FIG. 12, the following equation holds.
Figure 2006217183

式1〜式4を、式5〜式7に代入することにより、3つの式からなる3元2次連立方程式が得られる。ここで、x、yおよびzは正値をとるので、マイク位置算出部205はこの連立方程式を解くことにより、x、yおよびzを一意に算出することができる。以上が、マイク位置算出部205がマイク12の位置を算出する方法である。   By substituting Equations 1 to 4 into Equations 5 to 7, a ternary simultaneous equation consisting of three equations is obtained. Here, since x, y, and z have positive values, the microphone position calculation unit 205 can uniquely calculate x, y, and z by solving the simultaneous equations. The above is the method by which the microphone position calculation unit 205 calculates the position of the microphone 12.

ただし、マイク位置算出部205がマイク12の位置を算出する方法は上記のものに限られない。例えば、マイク12の高さ方向の位置が無視できる程度に小さい場合には、二次元平面におけるマイク12の位置、すなわちxおよびyのみを求めるようにしてもよい。その場合、変数が2つとなるので、超音波受信器19の数は3つ以上であればよい。また、マイク12に超音波発生器121を設ける代わりに、図12の超音波受信器19a〜dの位置に超音波発生器121を配置し、マイク12に超音波受信器19を設け、マイク位置算出部205はマイク12から超音波データを受信するように構成することにより、上記と類似の算出方法によりマイク位置算出部205がマイク12の位置を算出するようにしてもよい。   However, the method by which the microphone position calculation unit 205 calculates the position of the microphone 12 is not limited to the above. For example, when the position of the microphone 12 in the height direction is small enough to be ignored, only the position of the microphone 12 in the two-dimensional plane, that is, x and y may be obtained. In that case, since there are two variables, the number of ultrasonic receivers 19 may be three or more. Further, instead of providing the ultrasonic generator 121 in the microphone 12, the ultrasonic generator 121 is disposed at the position of the ultrasonic receivers 19 a to 19 d in FIG. 12, the ultrasonic receiver 19 is provided in the microphone 12, and the microphone position The calculation unit 205 may be configured to receive ultrasonic data from the microphone 12 so that the microphone position calculation unit 205 calculates the position of the microphone 12 by a calculation method similar to the above.

マイク位置算出部205は、上記のように算出したマイク12aおよびbの各々の位置を示す座標データXa(xa,ya,za)およびXb(xb,yb,zb)(以下、「マイク座標データ」と呼ぶ)をレンダリング処理部2023に順次送信する。マイク座標データは、レンダリング処理部2023において、トリミング処理部2024から送信される画像データのいずれの部分がいずれのユーザを示すデータであるかを特定するために用いられる。 The microphone position calculation unit 205 has coordinate data X a (x a , y a , z a ) and X b (x b , y b , z b ) indicating the positions of the microphones 12 a and b calculated as described above. (Hereinafter referred to as “microphone coordinate data”) are sequentially transmitted to the rendering processing unit 2023. The microphone coordinate data is used in the rendering processing unit 2023 to specify which part of the image data transmitted from the trimming processing unit 2024 is data indicating which user.

課金データ処理部206は、イベントデータ再生部204によるイベントデータの送信処理に基づき、ビデオ生成システム1の利用に対する課金額の算出および算出した課金額の決済の依頼処理を行う。その具体的内容については、下記の動作説明において併せて説明する。   The billing data processing unit 206 calculates a billing amount for use of the video generation system 1 and performs processing for requesting settlement of the calculated billing amount based on event data transmission processing by the event data reproducing unit 204. The specific contents will be described together in the following operation description.

[1.2.ビデオ生成システムの動作]
上記の構成を備えるビデオ生成システム1を用いて、ユーザは自分が登場人物として参加する短編映画の撮影を行い、その結果をビデオデータとして得ることができる。以下、ビデオ生成システム1の動作を説明する。以下の説明において、同時に2名のユーザがビデオ生成システム1を利用するものとするが、同時に利用可能なユーザの数はビデオ生成システム1が備えるマイク12の数およびストーリデータ1010の管理データにおいて示されるキャラクタ数のうち、小さい方を上限として自由に選択可能である。
[1.2. Operation of the video generation system]
Using the video generation system 1 having the above configuration, the user can shoot a short movie in which he / she participates as a character and obtain the result as video data. Hereinafter, the operation of the video generation system 1 will be described. In the following description, it is assumed that two users use the video generation system 1 at the same time. The number of users who can use the video generation system 1 at the same time is shown in the number of microphones 12 included in the video generation system 1 and the management data of the story data 1010. Of the number of characters to be selected, the smaller one can be selected freely.

ユーザは、ビデオ生成システム1の利用に先立ち、マイク12を自分の胸元に装着する。また、ユーザは、両手首および両足首に、各々指定された色のマーカを装着する。その後、ユーザはコントローラ11を用いて、ビデオ生成装置10に対し動作の開始を指示する。   Prior to using the video generation system 1, the user wears the microphone 12 on his / her chest. In addition, the user wears markers of a designated color on both wrists and both ankles. Thereafter, the user uses the controller 11 to instruct the video generation device 10 to start the operation.

[1.2.1.ユーザによる選択操作]
図13、図14および図15は、ユーザがビデオ生成システム1を利用する際にディスプレイ18に表示される画面を例示している。ユーザによりビデオ生成装置10に対し動作の開始の指示が行われると、ビデオ生成装置10の制御部103は、まず記憶部101に記憶されているストーリデータ1010(図3参照)の各々に含まれる管理データ(図4参照)からストーリデータ名称を読み出し、ディスプレイ18にストーリの選択画面(図13(a))を表示させる。
[1.2.1. Selection operation by the user]
FIGS. 13, 14, and 15 illustrate screens displayed on the display 18 when the user uses the video generation system 1. When the user instructs the video generation device 10 to start an operation, the control unit 103 of the video generation device 10 is first included in each of the story data 1010 (see FIG. 3) stored in the storage unit 101. The story data name is read from the management data (see FIG. 4), and the story selection screen (FIG. 13 (a)) is displayed on the display 18.

ストーリの選択画面において、ユーザがコントローラ11を用いてストーリの選択指示を行うと、ビデオ生成装置10は、ユーザに選択されたストーリデータ1010に含まれるアレンジデータを読み出し、イベントシーケンスデータの種別の各々について、アレンジの選択画面(図13(b)〜(g))を順次、表示させる。   When the user gives a story selection instruction using the controller 11 on the story selection screen, the video generation device 10 reads the arrangement data included in the story data 1010 selected by the user, and each type of event sequence data is read out. The arrangement selection screens (FIGS. 13B to 13G) are sequentially displayed.

上述したストーリおよびアレンジの選択画面において、ユーザがコントローラ11を用いて選択操作を行うと、制御部103はその選択操作に応じて、選択されたストーリデータ名称およびアレンジ名称を示す選択アレンジデータ、例えば「さるカニ合戦:ノスタルジック:ファンタジー・・・」を生成し、生成した選択アレンジデータを記憶部101に記憶させる。   When the user performs a selection operation using the controller 11 on the story and arrangement selection screen described above, the control unit 103 selects, according to the selection operation, selected arrangement data indicating the selected story data name and arrangement name, for example, “Saru Crab Battle: Nostalgic: Fantasy ...” is generated, and the generated selection arrangement data is stored in the storage unit 101.

続いて、ビデオ生成装置10は管理データに含まれるキャラクタ属性を読み出し、ディスプレイ18にキャラクタの選択画面(図14(a))を表示させる。キャラクタの選択画面において、ユーザはマイク12aを装着する人のキャラクタおよびマイク12bを装着する人のキャラクタを、それぞれマイクaおよびマイクbに対応するキャラクタとして選択する。また、ユーザは各々のキャラクタに関し、そのキャラクタをどのような表示方法(以下、「キャラクタモード」と呼ぶ)で表示させるかを選択する。キャラクタモードには、ユーザの全身画像をキャラクタの画像として用いる「実物」、キャラクタイメージにユーザの顔画像をはめ込んだ画像に対しユーザの動きに応じた変化を加えたものを用いる「着ぐるみ」およびユーザの画像は用いずにキャラクタイメージの画像に対しユーザの動きに応じた変化を加えたものを用いる「イメージ」のいずれかを選択する。   Subsequently, the video generation device 10 reads the character attribute included in the management data, and causes the display 18 to display a character selection screen (FIG. 14A). On the character selection screen, the user selects the character of the person wearing the microphone 12a and the character of the person wearing the microphone 12b as the characters corresponding to the microphone a and the microphone b, respectively. Further, the user selects a display method (hereinafter referred to as “character mode”) for displaying each character. The character mode includes “real” using the user's whole body image as the character image, “costume” using the character image in which the user's face image is embedded and a change corresponding to the user's movement, and the user One of “images” that uses a character image that has been changed in accordance with the user's movement is selected without using the above image.

キャラクタの選択画面において、ユーザがコントローラ11を用いて各マイクに対応するキャラクタの選択操作を行うと、制御部103はその選択操作に応じて、マイクとキャラクタの対応を示すキャラクタ対応データ、例えば「マイクa:さる」、「マイクb:母ガニ」を生成し、生成したキャラクタ対応データを記憶部101に記憶させる。同様に、キャラクタの選択画面において、ユーザがコントローラ11を用いてキャラクタモードの選択操作を行うと、制御部103はその選択操作に応じて、選択されたキャラクタモードを示すキャラクタモードデータを生成し、生成したキャラクタモードデータを記憶部101に記憶させる。   When the user performs a selection operation of a character corresponding to each microphone using the controller 11 on the character selection screen, the control unit 103 responds to the selection operation with character correspondence data indicating the correspondence between the microphone and the character, for example, “ “Mike a: Monkey” and “Mike b: Mother crab” are generated, and the generated character correspondence data is stored in the storage unit 101. Similarly, when the user performs a character mode selection operation using the controller 11 on the character selection screen, the control unit 103 generates character mode data indicating the selected character mode in accordance with the selection operation. The generated character mode data is stored in the storage unit 101.

続いて、ビデオ生成装置10はディスプレイ18に課金方法の選択画面(図14(b))を表示させる。課金方法の選択画面は、課金額の算出方法のリストを含んでいる。課金額の算出方法としては、例えばイベントデータの再生が行われるシーンの数に応じて課金する「300円/シーン」、イベントデータの再生時間に応じて課金する「150円/5分間」、基本料金とイベントデータの再生が行われるシーンの数の組合せに応じて課金する「1500円+300円/追加シーン」等、様々なものが考えられる。   Subsequently, the video generation apparatus 10 displays a billing method selection screen (FIG. 14B) on the display 18. The billing method selection screen includes a list of billing amount calculation methods. As a method of calculating the charge amount, for example, “300 yen / scene” for charging according to the number of scenes where event data is played back, “150 yen / 5 minutes” for charging according to the playback time of event data, basic Various things such as “1500 yen + 300 yen / additional scenes” that charge according to the combination of the charge and the number of scenes for which event data is to be played back are conceivable.

課金方法の選択画面において、ユーザがコントローラ11を用いて課金方法の選択操作を行うと、制御部103はその選択操作に応じて、選択された課金方法を示す課金方法データを生成し、生成した課金方法データを記憶部101に記憶させる。   When the user performs a charging method selection operation using the controller 11 on the charging method selection screen, the control unit 103 generates and generates charging method data indicating the selected charging method in accordance with the selection operation. Charge method data is stored in the storage unit 101.

続いて、ビデオ生成装置10はディスプレイ18にイベントデータの再生指示画面(図14(c))を表示させる。再生指示画面は、シーン名称とそのシーンのテイク(撮影)の完了もしくは未完了を示すリストを含んでいる。ユーザは再生指示画面において、イベントデータの再生を希望するシーンを選択する。また、再生指示画面において、ユーザは「練習モード」もしくは「本番モード」のいずれかのモード(以下、「再生モード」と呼ぶ)を選択することができる。「練習モード」とは、演技指導および台詞のお手本の音声が再生されるとともに、演技指導および台詞の文字とイベントシーケンスデータCIに従ったキャラクタイメージの動画が表示される再生モードである。一方、「本番モード」とは、演技指導およびユーザに選択されたキャラクタに関する台詞のお手本の音声は再生されず、ユーザの音声が加工処理等されて発音されるとともに、演技指導および台詞の文字と、ユーザの画像もしくはユーザの動きに応じて動きの変化するキャラクタイメージが表示される再生モードである。   Subsequently, the video generation apparatus 10 causes the display 18 to display an event data reproduction instruction screen (FIG. 14C). The playback instruction screen includes a scene name and a list indicating completion or incompleteness of take (shooting) of the scene. The user selects a scene for which event data is desired to be reproduced on the reproduction instruction screen. On the playback instruction screen, the user can select either the “practice mode” or the “production mode” (hereinafter referred to as “playback mode”). The “practice mode” is a playback mode in which a voice of a model for acting guidance and dialogue is reproduced, and a moving image of a character image according to the characters of the acting guidance and dialogue and the event sequence data CI is displayed. On the other hand, the “production mode” means that the voice of the script related to the character selected by the user is not reproduced, the user's voice is processed and pronounced, and the character of the This is a playback mode in which a user image or a character image whose movement changes according to the user's movement is displayed.

再生指示画面において、ユーザがコントローラ11を用いていずれかのシーン名称を選択すると、制御部103はその選択操作に応じて、選択されたシーン名称を示す選択シーンデータを生成し、生成した選択シーンデータを記憶部101に記憶させる。同様に、ユーザがコントローラ11を用いていずれかの再生モードのボタンを選択すると、制御部103はその選択操作に応じて、選択された再生モードを示す再生モードデータを生成し、生成した再生モードデータを記憶部101に記憶させる。   When the user selects any scene name using the controller 11 on the playback instruction screen, the control unit 103 generates selected scene data indicating the selected scene name according to the selection operation, and generates the selected scene. Data is stored in the storage unit 101. Similarly, when the user selects any playback mode button using the controller 11, the control unit 103 generates playback mode data indicating the selected playback mode in accordance with the selection operation, and generates the generated playback mode. Data is stored in the storage unit 101.

ユーザがコントローラ11を用いて、「練習モード」もしくは「本番モード」のいずれかを選択する操作を行うと、その操作に応じて、まず、ビデオ生成装置10の課金データ処理部206は、後述する課金額の算出に用いるため、その時点の時刻を示す再生開始時刻データを生成し、生成した再生開始時刻データを記憶部101に記憶させる。また、課金データ処理部206は、同じく課金額の算出に用いるため、再生されたシーンの数を記録するための再生回数カウンタを記憶部101に生成し、再生回数カウンタに「1」を設定する。   When the user performs an operation of selecting either “practice mode” or “production mode” using the controller 11, first, the billing data processing unit 206 of the video generation apparatus 10 is described later according to the operation. In order to use it for calculating the billing amount, reproduction start time data indicating the time at that time is generated, and the generated reproduction start time data is stored in the storage unit 101. Also, the billing data processing unit 206 generates a playback number counter for recording the number of reproduced scenes in the storage unit 101 and sets “1” in the playback number counter to be used for calculating the billing amount. .

続いて、イベントデータ再生部204は、記憶部101に記憶されている選択アレンジデータおよび選択シーンデータに従い、ユーザにより選択されたストーリ名称に対応するストーリデータ1010(図3参照)に含まれるアレンジデータ(図11参照)に基づき、ユーザにより選択されたアレンジ名称およびシーン名称に対応する各種イベントシーケンスデータを特定する。   Subsequently, the event data reproduction unit 204 arranges data included in the story data 1010 (see FIG. 3) corresponding to the story name selected by the user according to the selected arrangement data and the selected scene data stored in the storage unit 101. Based on (see FIG. 11), various event sequence data corresponding to the arrangement name and scene name selected by the user are specified.

例えば、図11に例示のアレンジデータに従う場合、ユーザにより「シーン1:出会い」が選択され、さらにバックグラウンドサウンドのアレンジ名称「爽やか」、バックグラウンドイメージのアレンジ名称「劇画風」、キャラクタイメージのアレンジ名称「ファンシー」、ダイアログのアレンジ名称「舞台劇風」、マイクエフェクトのアレンジ名称「非現実的」そしてカメラワークのアレンジ名称「技巧的」がそれぞれ選択された場合、イベントデータ再生部204は「BS0814.ivt」、「BI0795.ivt」、「CI0801.ivt」、「DL0685.ivt」、「ME0150.ivt」および「CW0401.ivt」を用いるべきイベントシーケンスデータのファイルとして特定する。   For example, when the arrangement data illustrated in FIG. 11 is followed, “scene 1: encounter” is selected by the user, the background sound arrangement name “fresh”, the background image arrangement name “dramatic”, and the character image arrangement. When the name “fancy”, the dialog arrangement name “stage play style”, the microphone effect arrangement name “unreal”, and the camera work arrangement name “technical” are selected, the event data playback unit 204 sets “BS0814. “ivt”, “BI0795.ivt”, “CI0801.ivt”, “DL0685.ivt”, “ME0150.ivt”, and “CW0401.ivt” are specified as the event sequence data files to be used.

イベントデータ再生部204は、上記のようにイベントシーケンスデータのファイルを特定すると、特定したファイルに格納されているイベントシーケンスデータに従い、イベントデータの再生を行う。すなわち、イベントデータ再生部204は、各々のイベントシーケンスデータに含まれるイベントデータを、対応付けられているタイミングデータにより示されるタイミングで、そのイベントデータの種別に応じた構成部に対し送信する。各構成部は、イベントデータ再生部204から受信したイベントデータに従い、各種処理を行う。ただし、イベントデータ再生部204によるイベントデータの再生処理およびイベントデータを受信した際の各構成部の動作は、再生モードが「練習モード」、「本番モード」のいずれであるかにより一部異なる。従って、以下、再生モードの各々について、イベントデータが再生される際のビデオ生成システム1の動作を説明する。   When the event data reproducing unit 204 identifies the event sequence data file as described above, the event data reproducing unit 204 reproduces the event data according to the event sequence data stored in the identified file. That is, the event data reproducing unit 204 transmits the event data included in each event sequence data to the component unit corresponding to the type of the event data at the timing indicated by the associated timing data. Each component performs various processes according to the event data received from the event data reproducing unit 204. However, the event data playback process by the event data playback unit 204 and the operation of each component when receiving the event data are partially different depending on whether the playback mode is “practice mode” or “production mode”. Therefore, the operation of the video generation system 1 when event data is reproduced for each of the reproduction modes will be described below.

[1.2.2.イベントデータの再生(練習モード)]
まず、記憶部101に再生モードデータ「練習モード」が記憶されている場合、イベントデータ再生部204は以下のようにイベントデータを音データブロック201に対し送信する。
(a)イベントシーケンスデータBSに含まれる楽音の発音を指示するイベントデータ→音源部2011。
(b)イベントシーケンスデータBS、イベントシーケンスデータDLおよびイベントシーケンスデータMEに含まれる音データの再生を指示するイベントデータ→音データ再生部2012。
(c)イベントシーケンスデータBSおよびイベントシーケンスデータMEに含まれる音に対するエフェクト処理を指示するイベントデータ→音データ加工処理部2013。
[1.2.2. Event data playback (practice mode)]
First, when playback mode data “practice mode” is stored in the storage unit 101, the event data playback unit 204 transmits event data to the sound data block 201 as follows.
(A) Event data instructing sound generation included in event sequence data BS → sound source unit 2011.
(B) Event data → sound data reproduction unit 2012 for instructing reproduction of sound data included in the event sequence data BS, event sequence data DL, and event sequence data ME.
(C) Event data → sound data processing unit 2013 for instructing effect processing for sounds included in the event sequence data BS and the event sequence data ME.

音源部2011は、上記(a)のイベントデータに従い、バックグラウンドサウンドを構成する楽音の再生を行う。また、音データ再生部2012は、上記(b)のイベントデータに従い、バックグラウンドサウンドを構成する楽音以外の音の再生、効果音の再生、演技指導の音声の再生および台詞のお手本音声の再生を行う。音源部2011および音データ再生部2012は、再生を指示したイベントデータにチャンネル番号が含まれる場合、再生した音データにそのチャンネル番号を付加する。また、音データ再生部2012は、再生を指示したイベントデータにキャラクタ名称が含まれる場合、再生した音データにそのキャラクタ名称を付加する。そのように生成された音データは、音源部2011および音データ再生部2012から音データ加工処理部2013に送信される。   The sound source unit 2011 reproduces the musical sound constituting the background sound according to the event data of (a). In addition, the sound data playback unit 2012 performs playback of sounds other than the musical sounds constituting the background sound, playback of sound effects, playback of voices for acting instruction, and playback of model voices in accordance with the event data of (b) above. Do. When the event data instructed to be reproduced includes a channel number, the sound source unit 2011 and the sound data reproducing unit 2012 add the channel number to the reproduced sound data. In addition, when the character data is included in the event data instructed to be reproduced, the sound data reproducing unit 2012 adds the character name to the reproduced sound data. The sound data thus generated is transmitted from the sound source unit 2011 and the sound data reproduction unit 2012 to the sound data processing unit 2013.

音データ加工処理部2013は、音源部2011および音データ再生部2012から受信した音データに対し、上記(c)のイベントデータに従い、ディレイ等の付加、パンの変更等の各種加工処理を行う。音データ加工処理部2013は、チャンネル番号を含むイベントデータを受信した場合、そのチャンネル番号の付加された音データに対し当該イベントデータに従った加工処理を行う。また、音データ加工処理部2013は、キャラクタ名称を含むイベントデータを受信した場合、そのキャラクタ名称の付加された音データに対し当該イベントデータに従った加工処理を行う。イベントデータに従い、必要に応じて加工処理の施された音データは、音データ加工処理部2013からアンプ13に出力され、アンプ13により増幅された後、スピーカ14により音に変換され発音される。   The sound data processing unit 2013 performs various types of processing such as adding a delay and changing pan on the sound data received from the sound source unit 2011 and the sound data reproducing unit 2012 according to the event data of (c). When the sound data processing unit 2013 receives event data including a channel number, the sound data processing unit 2013 performs processing according to the event data on the sound data to which the channel number is added. When the sound data processing unit 2013 receives event data including a character name, the sound data processing unit 2013 performs processing according to the event data on the sound data to which the character name is added. In accordance with the event data, sound data that has been processed as necessary is output from the sound data processing unit 2013 to the amplifier 13, amplified by the amplifier 13, converted into sound by the speaker 14, and pronounced.

上記の処理と並行して、イベントデータ再生部204は以下のようにイベントデータを画像データブロック202に対し送信する。
(d)イベントシーケンスデータBIに含まれる動画データの再生を指示するイベントデータ→動画データ再生部2021。
(e)イベントシーケンスデータDLに含まれる文字列の表示を指示するイベントデータ→文字画面生成部2022。
(f)イベントシーケンスデータCIに含まれるモデリングデータの指定および各パーツデータの位置、方向を指示するイベントシーケンスデータ→レンダリング処理部2023。
(g)イベントシーケンスデータBI、イベントシーケンスデータCIに含まれるレイヤ指定に関するイベントデータ、イベントシーケンスデータBIに含まれる静止画表示を指示するイベントデータ、イベントシーケンスデータCIおよびイベントシーケンスデータCWに含まれる画像に対するエフェクト処理、カメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータ→画像データ加工処理部2025。
In parallel with the above processing, the event data reproducing unit 204 transmits event data to the image data block 202 as follows.
(D) Event data → video data playback unit 2021 that instructs playback of video data included in the event sequence data BI.
(E) Event data → character screen generation unit 2022 for instructing display of a character string included in the event sequence data DL.
(F) Event sequence data instructing designation of modeling data included in the event sequence data CI and the position and direction of each part data → rendering processing unit 2023.
(G) Event sequence data BI, event data related to layer designation included in event sequence data CI, event data instructing still image display included in event sequence data BI, image included in event sequence data CI and event sequence data CW Event data for instructing effect processing, camera operation control, camera position, and illumination device operation control for image data processing unit 2025.

動画データ再生部2021は、上記(d)のイベントデータに従い、バックグラウンドイメージを構成する画像の再生を行い、再生した画像データに対し再生を指示したイベントデータに含まれるレイヤ番号を付加した後、画像データ加工処理部2025に送信する。また、文字画面生成部2022は、上記(e)のイベントデータに従い、演技指導および台詞の文字の表示画面を示す画像データを生成し、生成した画像データを画像データ加工処理部2025に送信する。また、レンダリング処理部2023は、上記(f)のイベントデータに従い、キャラクタイメージを示す画像データを生成し、生成した画像データに対し生成を指示したイベントデータに含まれるキャラクタ名称を付加した後、画像データ加工処理部2025に送信する。   In accordance with the event data of (d) above, the moving image data reproduction unit 2021 reproduces the image constituting the background image, adds the layer number included in the event data instructed to reproduce to the reproduced image data, It transmits to the image data processing unit 2025. In addition, the character screen generation unit 2022 generates image data indicating a display screen for acting instruction and dialogue characters according to the event data of (e), and transmits the generated image data to the image data processing unit 2025. In addition, the rendering processing unit 2023 generates image data indicating a character image according to the event data of (f) above, adds a character name included in the event data instructed to generate to the generated image data, Transmit to the data processing unit 2025.

画像データ加工処理部2025は、ストーリデータ1010のソースデータ群に含まれる静止画データに従った静止画表示を指示するイベントデータを受信した場合、そのイベントデータにより指示される静止画データを記憶部101から読み出す。また、画像データ加工処理部2025は、レイヤ番号を含むエフェクト処理を指示するイベントデータを受信した場合、そのレイヤ番号の付加された画像データに対し当該イベントデータに従った加工処理を行う。また、画像データ加工処理部2025は、キャラクタ名称を含むエフェクト処理を指示するイベントデータを受信した場合、そのキャラクタ名称の付加された画像データに対し当該イベントデータに従った加工処理を行う。   When the image data processing unit 2025 receives event data instructing still image display according to still image data included in the source data group of the story data 1010, the image data processing unit 2025 stores still image data instructed by the event data. Read from 101. In addition, when receiving event data instructing effect processing including a layer number, the image data processing unit 2025 performs processing according to the event data on the image data to which the layer number is added. In addition, when receiving event data instructing effect processing including a character name, the image data processing unit 2025 performs processing according to the event data on the image data to which the character name is added.

さらに、画像データ加工処理部2025は、イベントデータ再生部204からカメラ動作制御、カメラ位置および照明装置動作制御を指示するイベントデータを受信すると、動画データ再生部2021およびレンダリング処理部2023から受信した画像データおよび記憶部101から読み出した静止画データの各々に対し、イベントデータの内容に応じたサイズ変更処理、ぼかし処理、変形処理、色調整処理、明るさ調整処理等を行う。例えば、ズーム倍率の変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データのサイズを拡大もしくは縮小する。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの拡大縮小率を大きくし、奥のレイヤに配置された画像データの拡大縮小率を小さくすることにより、実際にビデオカメラのズーム倍率を変化させた場合の画像を擬似的に生成する。   Furthermore, when the image data processing unit 2025 receives event data instructing camera operation control, camera position, and lighting device operation control from the event data reproduction unit 204, the image data processing unit 2025 receives the image received from the moving image data reproduction unit 2021 and the rendering processing unit 2023. Each of the data and the still image data read from the storage unit 101 is subjected to a size change process, a blur process, a deformation process, a color adjustment process, a brightness adjustment process, and the like according to the contents of the event data. For example, the image data processing unit 2025 enlarges or reduces the size of each image data according to event data instructing to change the zoom magnification. At that time, the image data processing unit 2025 actually increases the enlargement / reduction ratio of the image data arranged in the front layer, for example, and decreases the enlargement / reduction ratio of the image data arranged in the back layer. A pseudo image is generated when the zoom magnification of the video camera is changed.

また、フォーカスの強さの変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データにぼかし処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データのぼかし処理の程度と奥のレイヤに配置された画像データのぼかし処理の程度を変化させることにより、実際にビデオカメラのフォーカスを変化させた場合の画像を擬似的に生成する。また、カメラ位置の変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データに変形処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの変形率を大きくし、奥のレイヤに配置された画像データの変形率を小さくすることにより、実際にビデオカメラを移動させた場合の画像を擬似的に生成する。   Further, the image data processing unit 2025 performs a blurring process on each image data according to the event data instructing to change the focus strength. At that time, the image data processing unit 2025 actually changes the degree of blurring of the image data arranged in the front layer and the degree of blurring of the image data arranged in the back layer, for example, to actually make the video. A pseudo image is generated when the focus of the camera is changed. Further, the image data processing unit 2025 performs transformation processing on each image data in accordance with the event data instructing to change the camera position. At that time, the image data processing unit 2025 actually increases the deformation rate of the image data arranged in the front layer, for example, and reduces the deformation rate of the image data arranged in the back layer. A pseudo image is generated when the is moved.

また、照明の色および明るさの変更を指示するイベントデータに応じて、画像データ加工処理部2025は各々の画像データに色調や明るさの変更処理を施す。その際、画像データ加工処理部2025は、例えば手前のレイヤに配置された画像データの色調や明るさの変更の程度を大きくし、奥のレイヤに配置された画像データの色調や明るさの変更の程度を小さくすることにより、実際に照明の色や明るさを変化させた場合の画像を擬似的に生成する。   In addition, the image data processing unit 2025 performs color tone and brightness change processing on each image data in accordance with event data instructing to change the illumination color and brightness. At that time, the image data processing unit 2025 increases the degree of change in the color tone and brightness of the image data arranged in the previous layer, for example, and changes the color tone and brightness of the image data arranged in the back layer. By reducing the degree of, an image in the case where the color or brightness of the illumination is actually changed is generated in a pseudo manner.

画像データ加工処理部2025は、以上のように各種加工処理を施して得られる画像データを、配置されたレイヤ番号の順に従いスーパーインポーズし、最後に文字画面生成部2022から受信した画像データをスーパーインポーズして、1つの画像データを合成する。画像データ加工処理部2025は合成により得られた画像データをディスプレイ18に送信する。ディスプレイ18は受信した画像データに従い、バックグラウンドイメージ、キャラクタイメージ、演技指導および台詞文字を含む画面を表示する。図14(d)は、練習モードにおいてディスプレイ18に表示される画面を例示している。   The image data processing unit 2025 superimposes the image data obtained by performing various types of processing as described above according to the order of the arranged layer numbers, and finally receives the image data received from the character screen generation unit 2022. Superimpose to compose one image data. The image data processing unit 2025 transmits the image data obtained by the synthesis to the display 18. The display 18 displays a screen including a background image, character image, performance instruction, and dialogue characters according to the received image data. FIG. 14D illustrates a screen displayed on the display 18 in the practice mode.

上記のようなビデオ生成システム1の動作により、イベントデータ再生部204によるイベントデータの再生が行われる間、ユーザは台詞のお手本音声を聞きながら台詞の練習をし、またディスプレイ18に表示されるキャラクタイメージの動きを見ながら動作の練習を行う。その際、ユーザは演技指導の音声を参考とし、自分の動作や表情、台詞まわし等を工夫することができる。   While the event data is being reproduced by the event data reproducing unit 204 by the operation of the video generation system 1 as described above, the user practices the speech while listening to the speech of the speech, and the character displayed on the display 18 Practice the movement while watching the movement of the image. At that time, the user can devise his / her actions, facial expressions, dialogue rotation, etc. with reference to the voice of the performance instruction.

イベントデータ再生部204による1シーン分のイベントデータの再生が終了すると、課金データ処理部206はその時点の時刻を示す再生終了時刻データを生成し、生成した再生終了時刻データを記憶部101に記憶させる。その後、制御部103は図14(c)に示したような再生指示画面を再度、ディスプレイ18に表示させる。   When the event data playback unit 204 finishes playing the event data for one scene, the billing data processing unit 206 generates playback end time data indicating the current time, and stores the generated playback end time data in the storage unit 101. Let Thereafter, the control unit 103 displays the reproduction instruction screen as shown in FIG. 14C on the display 18 again.

[1.2.3.イベントデータの再生(本番モード)]
一方、記憶部101に再生モードデータ「本番モード」が記憶されている場合、ビデオ生成システム1がイベントデータの再生に際し行う動作は、上記の練習モードにおける場合と多くの点で共通しているが、以下の点で異なる。
[1.2.3. Event data playback (production mode)]
On the other hand, when the playback mode data “production mode” is stored in the storage unit 101, the operation performed by the video generation system 1 when reproducing the event data is common in many respects to that in the practice mode. It differs in the following points.

まず、イベントデータ再生部204は、練習モードにおいて送信するイベントデータに加え、さらに以下のイベントデータを動作制御ブロック203に対し送信する。
(h)イベントシーケンスデータCWに含まれるカメラ動作制御およびカメラ位置を指示するイベントデータ→レンダリング処理部2023。
(i)イベントシーケンスデータCWに含まれるカメラ動作制御を指示するイベントデータ→カメラ動作制御部2031。
(j)イベントシーケンスデータCWに含まれるカメラ位置を指示するイベントデータ→移動動作制御部2032。
(k)イベントシーケンスデータCWに含まれる照明装置動作制御を指示するイベントデータ→照明動作制御部2033。
First, the event data reproducing unit 204 transmits the following event data to the operation control block 203 in addition to the event data transmitted in the practice mode.
(H) Event data indicating the camera operation control and camera position included in the event sequence data CW → the rendering processing unit 2023.
(I) Event data instructing camera operation control included in the event sequence data CW → camera operation control unit 2031.
(J) Event data indicating the camera position included in the event sequence data CW → the movement operation control unit 2032.
(K) Event data instructing lighting device operation control included in the event sequence data CW → lighting operation control unit 2033.

カメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033は、それぞれ上記(i)、(j)および(k)のイベントデータに従い、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御を行う。その動作制御に従い、ビデオカメラ15はズーム倍率やフォーカスの強さを変更し、カメラ移動装置16はビデオカメラ15の位置および方向を変更し、照明装置17は照明の色および明るさを変更する。その結果、ビデオカメラ15は変化に富む画像データを順次生成することができる。ビデオカメラ15は撮像処理により生成した画像データをトリミング処理部2024に送信する。   The camera operation control unit 2031, the movement operation control unit 2032, and the illumination operation control unit 2033 are based on the event data (i), (j), and (k), respectively, and the video camera 15, the camera movement device 16, and the illumination device 17. Perform motion control. In accordance with the operation control, the video camera 15 changes the zoom magnification and the focus strength, the camera moving device 16 changes the position and direction of the video camera 15, and the illumination device 17 changes the color and brightness of the illumination. As a result, the video camera 15 can sequentially generate image data rich in change. The video camera 15 transmits the image data generated by the imaging process to the trimming processing unit 2024.

トリミング処理部2024はビデオカメラ15a〜dから送信される画像データの各々について、ユーザの画像部分を取り出すトリミング処理を行い、ユーザ画像データを生成する。トリミング処理部2024はユーザ画像データを、いずれのビデオカメラ15の画像データから生成したものであるかを示すデータとともにレンダリング処理部2023に送信する。また、トリミング処理部2024は、生成したユーザ画像データの各々に関し、ユーザにより両手両足の各々に装着されたマーカの色ごとに、マーカの画像部分を取り出すトリミング処理を行い、マーカ画像データを生成する。トリミング処理部2024はマーカ画像データを、いずれのユーザ画像データから生成したものであるかを示すデータとともにレンダリング処理部2023に送信する。   The trimming processing unit 2024 performs a trimming process for extracting a user's image portion for each of the image data transmitted from the video cameras 15a to 15d to generate user image data. The trimming processing unit 2024 transmits user image data to the rendering processing unit 2023 together with data indicating which video camera 15 has generated the user image data. Further, the trimming processing unit 2024 performs a trimming process for extracting the image portion of the marker for each color of the marker worn by the user on each of both hands and feet for each of the generated user image data, and generates marker image data. . The trimming processing unit 2024 transmits the marker image data to the rendering processing unit 2023 together with data indicating which user image data is generated from the marker image data.

一方、マイク位置算出部205は、超音波受信器19a〜dの各々から超音波を示すデータを受信し、受信したデータに基づきマイク12aおよびbの位置を示すマイク座標データを生成する。マイク位置算出部205は生成したマイク座標データを、マイク12aおよびbのいずれに対応するものかを示すデータとともにレンダリング処理部2023に送信する。   On the other hand, the microphone position calculation unit 205 receives data indicating ultrasonic waves from each of the ultrasonic receivers 19a to 19d, and generates microphone coordinate data indicating the positions of the microphones 12a and 12b based on the received data. The microphone position calculation unit 205 transmits the generated microphone coordinate data to the rendering processing unit 2023 together with data indicating which of the microphones 12a and b corresponds.

レンダリング処理部2023は、トリミング処理部2024からユーザ画像データおよびマーカ画像データを、またマイク位置算出部205からマイク座標データを受信すると、その時点でイベントデータ再生部204から受信しているカメラ位置およびカメラ方向を指示するイベントデータと、マイク位置算出部205から受信したマイク座標データに基づき、ビデオカメラ15により生成された画像データにおけるユーザ画像データの位置と、ビデオカメラ15の位置とマイク12の位置関係から定まるユーザの位置との照合を行う。このレンダリング処理部2023による照合処理により、1つのビデオカメラ15により複数のユーザが撮像されている場合においても、いずれのユーザ画像データがいずれのユーザのものであるかが特定される。   When the rendering processing unit 2023 receives user image data and marker image data from the trimming processing unit 2024 and microphone coordinate data from the microphone position calculation unit 205, the rendering processing unit 2023 receives the camera position and the camera position currently received from the event data reproduction unit 204. Based on the event data indicating the camera direction and the microphone coordinate data received from the microphone position calculation unit 205, the position of the user image data in the image data generated by the video camera 15, the position of the video camera 15, and the position of the microphone 12 Collation with the position of the user determined from the relationship is performed. The collation processing by the rendering processing unit 2023 specifies which user image data belongs to which user even when a plurality of users are captured by one video camera 15.

続いて、レンダリング処理部2023は、マーカ画像データにより示されるマーカ部分の代表点、例えば重心の座標を示すマーカ座標データを算出する。各マーカはユーザのいずれの部位に装着されたものであるかが色により区別され、各マーカ画像データにはその生成に用いられたユーザ画像データを示すユーザが付加されているので、レンダリング処理部2023は算出したマーカ座標データがいずれのユーザのいずれの部位に装着されたマーカ位置を示すものであるかを特定することができる。   Subsequently, the rendering processing unit 2023 calculates marker coordinate data indicating the coordinates of the representative point of the marker portion indicated by the marker image data, for example, the center of gravity. Each marker is identified by which color it is attached to which part of the user, and each marker image data has a user indicating the user image data used for its generation added, so that the rendering processing unit 2023 can specify whether the calculated marker coordinate data indicates the marker position attached to which part of which user.

上記のように各ユーザとの対応付けが行われたユーザ画像データと、各ユーザの各部位との対応付けが行われたマーカ座標データを用いて、レンダリング処理部2023は、ユーザにより選択されたキャラクタに関し、キャラクタの画像データの生成処理を以下のように行う。   The rendering processing unit 2023 is selected by the user using the user image data associated with each user as described above and the marker coordinate data associated with each part of each user. For the character, the character image data generation process is performed as follows.

記憶部101にキャラクタモードデータ「実物」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、イベントデータに従ってレンダリング処理により生成したキャラクタイメージの画像データの代わりに、トリミング処理部2024から送信されるユーザ画像データをそのまま画像データ加工処理部2025に送信する。その際、レンダリング処理部2023は、記憶部101に記憶されているキャラクタ対応データに従い、例えばマイク12aを装着しているユーザのユーザ画像データにキャラクタ名称「さる」を、またマイク12bを装着しているユーザのユーザ画像データにキャラクタ名称「母ガニ」を付加して送信する。その結果、画像データ加工処理部2025はレンダリング処理部2023から受信するユーザ画像データをどのレイヤに配置すべきかを特定することができる。   When the character mode data “real” is stored in the storage unit 101, the rendering processing unit 2023 performs a trimming process on the character selected by the user instead of the image data of the character image generated by the rendering process according to the event data. The user image data transmitted from the unit 2024 is transmitted to the image data processing unit 2025 as it is. At that time, the rendering processing unit 2023 attaches the character name “Saru” to the user image data of the user wearing the microphone 12a and the microphone 12b according to the character correspondence data stored in the storage unit 101, for example. The character name “mother crab” is added to the user image data of the user who is being transmitted. As a result, the image data processing unit 2025 can specify in which layer the user image data received from the rendering processing unit 2023 should be arranged.

また、記憶部101にキャラクタモードデータ「着ぐるみ」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、マイク位置算出部205から受信したマイク座標データおよび算出したマーカ座標データに基づきキャラクタの各パーツの位置および方向を算出し、イベントデータにより指示される各パーツの位置および方向の代わりに、マーカ座標データより算出した位置および方向に従ったレンダリング処理を行う。また、レンダリング処理部2023は、ユーザ画像データから上部に位置する楕円形部分をユーザの顔部分の画像データとして取り出す。レンダリング処理部2023は、レンダリング処理により生成したキャラクタイメージの顔部分の画像データを、ユーザの顔部分の画像データと置き換える。その結果、レンダリング処理部2023はユーザの動作に応じて各パーツの位置および方向が変化するキャラクタイメージにユーザの顔の画像を合成した画像データを生成する。レンダリング処理部2023は、そのように生成した画像データをキャラクタ名称とともに画像データ加工処理部2025に送信する。   When the character mode data “costume” is stored in the storage unit 101, the rendering processing unit 2023 relates to the character selected by the user, the microphone coordinate data received from the microphone position calculation unit 205, and the calculated marker coordinate data. The position and direction of each part of the character are calculated based on the above, and a rendering process is performed according to the position and direction calculated from the marker coordinate data instead of the position and direction of each part specified by the event data. In addition, the rendering processing unit 2023 extracts an elliptical portion positioned at the top from the user image data as image data of the user's face portion. The rendering processing unit 2023 replaces the image data of the face part of the character image generated by the rendering process with the image data of the user's face part. As a result, the rendering processing unit 2023 generates image data obtained by combining the image of the user's face with the character image in which the position and direction of each part changes according to the user's operation. The rendering processing unit 2023 transmits the image data generated as described above to the image data processing processing unit 2025 together with the character name.

また、記憶部101にキャラクタモードデータ「イメージ」が記憶されている場合、レンダリング処理部2023はユーザにより選択されているキャラクタに関し、上記のキャラクタモードデータ「着ぐるみ」の場合とほぼ同様の処理を行うが、レンダリングにより生成したキャラクタイメージの顔部分の画像データをユーザの顔部分の画像データと置き換える処理は行わない。その一方で、レンダリング処理部2023はユーザの顔部分の画像データのうち、上部に左右に並んで位置する楕円形部分を目部分の画像データとして、また顔部分の下部に上下に並んで位置する楕円形部分を唇部分の画像データとして取り出す。レンダリング処理部2023は、そのように取り出した目部分および唇部分の顔部分における位置情報を算出し、その位置情報に基づき、レンダリング処理におけるキャラクタイメージの目のパーツおよび唇のパーツの位置を決定する。その結果、レンダリング処理部2023はユーザの手足および目や唇の動作に応じて各パーツの位置および方向が変化するキャラクタイメージの画像データを生成する。レンダリング処理部2023は、そのように生成した画像データをキャラクタ名称とともに画像データ加工処理部2025に送信する。   When the character mode data “image” is stored in the storage unit 101, the rendering processing unit 2023 performs substantially the same processing as that of the character mode data “costume” on the character selected by the user. However, the process of replacing the image data of the face portion of the character image generated by rendering with the image data of the user's face portion is not performed. On the other hand, the rendering processing unit 2023 is located in the upper part of the image data of the user's face part, and the elliptical part located side by side as the image data of the eye part and vertically below the face part. The oval part is extracted as image data of the lip part. The rendering processing unit 2023 calculates the position information of the face part of the eye part and the lip part thus extracted, and determines the position of the eye part and the lip part of the character image in the rendering process based on the position information. . As a result, the rendering processing unit 2023 generates image data of a character image in which the position and direction of each part changes according to the movement of the user's limbs, eyes, and lips. The rendering processing unit 2023 transmits the image data generated as described above to the image data processing processing unit 2025 together with the character name.

上記のような画像データブロック202の処理により、本番モードにおいては、ユーザの画像もしくはユーザの動作に応じて変化するキャラクタイメージの画像が用いられた画面がディスプレイ18に表示される。図14(e)は、本番モードにおいて、キャラクタモード「着ぐるみ」が選択されている場合に、ディスプレイ18に表示される画面を例示している。   Through the processing of the image data block 202 as described above, in the production mode, a screen using a user image or a character image that changes according to the user's operation is displayed on the display 18. FIG. 14E illustrates a screen displayed on the display 18 when the character mode “costume” is selected in the production mode.

また、本番モードにおいては、画像データ加工処理部2025は、ユーザにより選択されているキャラクタの静止画像の表示を指示するイベントデータを受信した場合、そのイベントデータにより指示される静止画データを記憶部101から読み出す代わりに、レンダリング処理部2023から送信される画像データの1コマ分を用いる。従って、画像データ加工処理部2025により合成され、ディスプレイ18に表示される画像には、ユーザにより選択されているキャラクタモードに応じて、ユーザの画像、ユーザの顔画像をキャラクタイメージに組み込んだ画像、もしくはキャラクタイメージが含まれることになる。また、ユーザの静止画データもしくはユーザの動きに応じたキャラクタイメージが用いられる場合、画像データ加工処理部2025により用いられる1コマ分の画像データに対応するユーザの画像データをビデオカメラ15が撮像するタイミングに応じて、イベントシーケンスデータDLに従い、ユーザに対し、例えば「静止画の撮影を行います。3、2、1、はい!」のような演技指導の音声の発音および文字の表示が行われるようにしてもよい。   In the production mode, when the image data processing unit 2025 receives event data instructing display of a still image of the character selected by the user, the image data processing unit 2025 stores still image data instructed by the event data. Instead of reading from 101, one frame of image data transmitted from the rendering processing unit 2023 is used. Therefore, the image synthesized by the image data processing unit 2025 and displayed on the display 18 includes an image in which the user image and the user face image are incorporated in the character image according to the character mode selected by the user, Or a character image is included. When the user still image data or the character image corresponding to the user's movement is used, the video camera 15 captures the user image data corresponding to the image data for one frame used by the image data processing unit 2025. Depending on the timing, according to the event sequence data DL, for example, the voice of the performance instruction and the display of characters such as “Shoot a still image. 3, 2, 1, Yes!” Are performed to the user. You may do it.

一方、音データブロック201においても、本番モードにおいては練習モードと一部異なる処理が行われる。まず、イベントデータ再生部204は、記憶部101に記憶されているキャラクタ対応データに従い、ユーザにより選択されているキャラクタに関する台詞のお手本音声の再生を指示するイベントデータを音データ再生部2012に送信しない。その結果、音データ再生部2012は、ユーザにより選択されていないキャラクタの台詞音声のみを再生する。   On the other hand, also in the sound data block 201, processing different from the practice mode is performed in the actual mode. First, the event data reproducing unit 204 does not transmit event data instructing reproduction of the model voice of the dialogue related to the character selected by the user to the sound data reproducing unit 2012 according to the character correspondence data stored in the storage unit 101. . As a result, the sound data playback unit 2012 plays back only the speech of characters not selected by the user.

また、イベントデータ再生部204は、演技指導の音声の再生を指示するイベントデータを音データ再生部2012に送信しない。その結果、音データ再生部2012により演技指導の音声が再生されることはない。   Further, the event data reproducing unit 204 does not transmit the event data instructing the reproduction of the performance instruction voice to the sound data reproducing unit 2012. As a result, the voice of the performance instruction is not played back by the sound data playback unit 2012.

また、音データ加工処理部2013は、ユーザにより選択されているキャラクタの音声を示す音データとして、音データ再生部2012から送信される音データではなく、マイク12により拾音された音を示す音データを用いる。その際、音データ加工処理部2013は記憶部101に記憶されているキャラクタ対応データに従い、いずれのマイク12から受信する音データをいずれのキャラクタの台詞を示す音データとして用いるかを特定する。その結果、音データ加工処理部2013は、イベントデータにより指示されるエフェクト処理の対象となる音データを特定することができる。   The sound data processing unit 2013 is not the sound data transmitted from the sound data reproducing unit 2012 as the sound data indicating the sound of the character selected by the user, but the sound indicating the sound picked up by the microphone 12. Use data. At that time, the sound data processing unit 2013 specifies which sound data received from which microphone 12 is used as sound data indicating the line of which character in accordance with the character correspondence data stored in the storage unit 101. As a result, the sound data processing unit 2013 can specify the sound data that is the target of the effect processing instructed by the event data.

上記のような音データブロック201の処理により、本番モードにおいては、ユーザの音声が用いられた音がスピーカ14から発音される。   Through the processing of the sound data block 201 as described above, a sound using the user's voice is generated from the speaker 14 in the production mode.

ところで、本番モードにおいては、音データ加工処理部2013により生成される音データは、アンプ13に出力されるとともに記憶部101に順次記憶される。同様に、画像データ加工処理部2025により生成される画像データは、ディスプレイ18に送信されるとともに記憶部101に順次記憶される。ただし、記憶部101に記憶される画像データは、画像データ加工処理部2025が文字画面生成部2022から受信する演技指導および台詞の文字表示画面のデータがスーパーインポーズされていないものである。   By the way, in the production mode, the sound data generated by the sound data processing unit 2013 is output to the amplifier 13 and is sequentially stored in the storage unit 101. Similarly, image data generated by the image data processing unit 2025 is transmitted to the display 18 and is sequentially stored in the storage unit 101. However, the image data stored in the storage unit 101 is data in which the performance instruction and dialogue character display screen data received by the image data processing unit 2025 from the character screen generation unit 2022 are not superimposed.

イベントデータ再生部204による1シーン分のイベントデータの再生が終了すると、課金データ処理部206はその時点の時刻を再生終了時刻データとして記憶部101に記憶させる。また、制御部103は、記憶部101に順次記憶した音データおよび画像データを統合し、例えばシーンを特定可能な「シーン1.mov」等のファイル名を付加してビデオデータとして保存する。その後、制御部103は図14(c)に示したような再生指示画面を再度、ディスプレイ18に表示させる。ただし、この場合、再生指示画面に含まれるシーン名称のリストにおいては、ビデオデータの生成がなされたシーンに対応するテイクの欄が「完了」と表示される。   When the event data playback unit 204 finishes playing the event data for one scene, the billing data processing unit 206 stores the time at that time in the storage unit 101 as playback end time data. In addition, the control unit 103 integrates the sound data and the image data sequentially stored in the storage unit 101, adds a file name such as “scene 1.mov” that can specify a scene, and stores it as video data. Thereafter, the control unit 103 displays the reproduction instruction screen as shown in FIG. 14C on the display 18 again. However, in this case, in the list of scene names included in the playback instruction screen, the take column corresponding to the scene for which video data has been generated is displayed as “completed”.

ユーザは再生指示画面(図14(c))において、自由に練習もしくは撮影を行いたいシーンを選択し、上記と同様に練習モードもしくは本番モードによるイベントデータの再生を繰り返す。各々のシーンの再生に伴い、課金データ処理部206は再生開始時刻データおよび再生終了時刻データを記憶部101に記憶するとともに、記憶部101の再生回数カウンタに1を加算する。ユーザにより、選択されたストーリに含まれる全てのシーンに関するテイクが完了すると、ディスプレイ18には図14(f)に示されるような全テイク完了の通知画面が表示される。ユーザが全テイク完了の通知画面において「再生」を選択すると、ビデオ生成装置10の動画データ再生部2021は各シーンのビデオデータをシーンの順序に従って順次再生する。その結果、ユーザは自分の画像もしくは自分の動作により動くキャラクタイメージが登場する短編映画がディスプレイ18に表示されるのを楽しむことができる。   On the playback instruction screen (FIG. 14C), the user freely selects a scene to be practiced or photographed, and repeats the playback of event data in the practice mode or the production mode as described above. As each scene is reproduced, the billing data processing unit 206 stores the reproduction start time data and the reproduction end time data in the storage unit 101 and adds 1 to the reproduction number counter of the storage unit 101. When the user completes the take for all scenes included in the selected story, the display 18 displays a notification screen for the completion of all takes as shown in FIG. When the user selects “play” on the notification screen indicating that all takes have been completed, the moving image data playback unit 2021 of the video generation device 10 sequentially plays back the video data of each scene according to the order of the scenes. As a result, the user can enjoy displaying the short movie on which the user's own image or the character image moving by his / her movement appears on the display 18.

また、ユーザはビデオ生成システム1により生成された短編映画の出来が気に入らない場合には、「戻る」を選択しディスプレイ18に再生指示画面(図14(c))を表示させ、既にテイクの完了したシーンに関し、撮影のやり直しを行うこともできる。また、ユーザはビデオ生成システム1により生成された短編映画の出来が気に入った場合には、メディアドライブ20にフラッシュメモリ等の記憶媒体を装填した後、「保存」を選択することにより、短編映画のビデオデータを記憶媒体に保存させることができる。また、ユーザは「送信」を選択した後、例えば電子メールのアドレス等を指定することにより、インターネット21を介して希望の通信端末に短編映画のビデオデータを送信させることができる。その結果、ユーザはビデオ生成システム1により生成された短編映画を自宅等で繰り返し楽しんだり、友人に送信したりすることができる。   If the user does not like the short movie generated by the video generation system 1, the user selects “Return” to display the playback instruction screen (FIG. 14C) on the display 18, and the take has already been completed. It is also possible to re-shoot the scene. If the user likes the short movie produced by the video generation system 1, the storage medium such as a flash memory is loaded into the media drive 20, and then “Save” is selected to select the short movie. Video data can be stored on a storage medium. Further, after selecting “Send”, the user can transmit video data of a short movie to a desired communication terminal via the Internet 21 by designating an e-mail address or the like, for example. As a result, the user can repeatedly enjoy the short movie generated by the video generation system 1 at home or send it to a friend.

[1.2.4.課金処理]
全テイク完了の通知画面(図14(f))において、ユーザが「終了」を選択すると、ビデオ生成装置10はユーザのビデオ生成システム1の利用に対する課金処理を行う。まず、ユーザの「終了」の選択操作に応じて、課金データ処理部206は記憶部101に記憶されている課金方法データに従い、課金額の算出処理を行う。例えば課金方法データが「150円/5分間」である場合、課金データ処理部206は記憶部101に記憶されている再生開始時刻データおよび再生終了時刻データに基づきビデオ生成装置10によりイベントデータの再生が行われた時間を算出し、算出した時間(分)を5で除した値に1500を乗じて、課金額(円)を算出する。
[1.2.4. Billing process]
When the user selects “END” on the notification screen for the completion of all takes (FIG. 14F), the video generation apparatus 10 performs a charging process for the use of the video generation system 1 by the user. First, in accordance with the user's “end” selection operation, the billing data processing unit 206 performs billing amount calculation processing according to the billing method data stored in the storage unit 101. For example, when the accounting method data is “150 yen / 5 minutes”, the accounting data processing unit 206 reproduces the event data by the video generation device 10 based on the reproduction start time data and the reproduction end time data stored in the storage unit 101. Is calculated by multiplying the value obtained by dividing the calculated time (minutes) by 5 by 1500.

また、例えば課金方法データが「300円/シーン」である場合、課金データ処理部206は記憶部101に記憶されている再生回数カウンタの値に300を乗じて、課金額(円)を算出する。これらの課金額の算出方法は例示であって、他に様々な課金額の算出方法が考えられる。また、本実施形態においてはイベントデータの再生時間およびイベントデータの再生の行われたシーンの数に基づき課金額を算出するものとして説明したが、例えばビデオ生成システム1の動作の開始から終了に至る全時間を課金額の算出に用いたり、ユーザにより選択されたキャラクタの数を課金額の算出に用いるなど、他の様々な情報を課金額の算出に用いてもよい。   For example, when the accounting method data is “300 yen / scene”, the accounting data processing unit 206 multiplies the value of the reproduction counter stored in the storage unit 101 by 300 to calculate the accounting amount (yen). . These billing amount calculation methods are examples, and various other billing amount calculation methods are conceivable. In this embodiment, the accounting amount is calculated based on the playback time of the event data and the number of scenes where the playback of the event data is performed. However, for example, the operation from the start of the video generation system 1 to the end is performed. Various other information may be used for calculating the charge amount, such as using the entire time for calculating the charge amount or using the number of characters selected by the user for calculating the charge amount.

続いて、制御部103は、課金データ処理部206により算出された課金額を用いて、ディスプレイ18に図15(a)に示す課金額の支払方法の選択画面を表示させる。支払方法の選択画面において、ユーザは例えばクレジットカードによる決済もしくは銀行口座からの引き落としのいずれかを選択することができる。ユーザにより「クレジットカード」もしくは「銀行口座」が選択された場合、制御部103は図15(b)もしくは(c)に示す画面を表示させ、クレジットカードによる決済もしくは銀行口座からの引き落としに必要な情報の入力をユーザに促す。ユーザにより必要な情報の入力が行われ、「OK」が選択されると、制御部103は、例えばインターネット21を介してクレジットカード会社もしくは銀行のサーバに接続し、ユーザにより入力された情報を用いて、当該サーバに対し、課金額の決済処理もしくは送金処理の指示を行う。   Subsequently, the control unit 103 causes the display 18 to display a payment amount selection method selection screen shown in FIG. 15A using the charging amount calculated by the charging data processing unit 206. On the payment method selection screen, the user can select, for example, either payment by credit card or withdrawal from a bank account. When “credit card” or “bank account” is selected by the user, the control unit 103 displays the screen shown in FIG. 15B or FIG. 15C, and is necessary for settlement by credit card or withdrawal from the bank account. Prompt the user for information. When necessary information is input by the user and “OK” is selected, the control unit 103 connects to a credit card company or bank server via the Internet 21, for example, and uses the information input by the user. Thus, the server is instructed to perform a billing settlement process or a remittance process.

本実施形態においては、課金額の支払方法としてクレジットカードおよび銀行口座によるものを例示したが、例えば現金による決済等、他の支払方法を採用してもよい。例えばビデオ生成システム1において、現金による決済を選択可能とする場合、ビデオ生成システム1はビデオ生成装置10に接続されたキャッシュレジスタを備え、ユーザによるキャッシュレジスタに対する現金の投入に対し、釣り銭の排出を行う。さらに、ビデオ生成システム1がビデオ生成装置10に接続された印刷装置を備えるようにし、ユーザに対し領収書やクレジットカードの利用控書等の書類を発行するようにしてもよい。制御部103は、上記のサーバに対する決済処理もしくは送金処理の指示を終えると、ディスプレイ18に図15(d)に示す画面を表示させ、一連の動作を完了する。   In the present embodiment, the payment method of the charge amount is exemplified by a credit card and a bank account, but other payment methods such as cash settlement may be adopted. For example, in the video generation system 1, when it is possible to select payment by cash, the video generation system 1 includes a cash register connected to the video generation apparatus 10, and discharges change in response to a cash input to the cash register by the user. Do. Furthermore, the video generation system 1 may be provided with a printing device connected to the video generation device 10 so as to issue documents such as a receipt and a credit card usage certificate. When the control unit 103 finishes the settlement processing or remittance processing instruction to the server, the control unit 103 displays the screen shown in FIG. 15D on the display 18 and completes a series of operations.

以上のように、ビデオ生成システム1によれば、予め準備されたイベントシーケンスデータに従い、リアルタイムに撮像されるユーザの画像データを用いて適切な加工処理により生成された画像データと、リアルタイムに拾音されるユーザの音声データを用いて適切な加工処理により生成された音データからなるビデオデータが自動生成される。その際、台詞文字や動作の手本となるキャラクタイメージの表示、演技指導の音声の発音および文字の表示等が行われるため、ユーザは気軽にビデオデータの生成に参加することができるとともに、観衆をより楽しませることができるビデオデータを生成することができる。   As described above, according to the video generation system 1, according to event sequence data prepared in advance, image data generated by appropriate processing using user image data captured in real time, and sound pickup in real time Video data composed of sound data generated by appropriate processing using the user's voice data is automatically generated. At that time, dialogue characters and character images that serve as examples of actions, voice production of acting guidance and display of characters, etc. are displayed, so that the user can easily participate in the generation of video data and the audience. Can generate video data that can be more entertaining.

また、ビデオ生成システム1によれば、ユーザは予め準備された複数のイベントシーケンスデータの中から好みのアレンジに対応するものを選択することにより、自分の好みやその場の雰囲気に沿ったビデオデータを生成することができる。   Further, according to the video generation system 1, the user selects video data corresponding to his / her preference and the atmosphere of the place by selecting one corresponding to a favorite arrangement from a plurality of event sequence data prepared in advance. Can be generated.

また、ビデオ生成システム1によれば、例えばビデオカメラの位置やズーム倍率の変更等、照明の色や明るさの変更等に応じて、バックグラウンドイメージやキャラクタイメージ等の画像データに適切な加工処理が行われるため、より観衆を楽しませることができるビデオデータを生成することができる。   Further, according to the video generation system 1, for example, processing appropriate to image data such as a background image or a character image according to a change in illumination color or brightness, such as a change in the position of a video camera or a zoom magnification. Therefore, video data that can more entertain the audience can be generated.

ところで、ビデオ生成装置10は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。ビデオ生成装置10が汎用コンピュータにより実現される場合、制御部103の各構成部は、汎用コンピュータが備えるCPU(Central Processing Unit)およびCPUの制御下で動作するDSP(Digital Signal Processor)が、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。   By the way, the video generation apparatus 10 may be realized by dedicated hardware, or may be realized by causing a general-purpose computer to execute processing according to an application program. When the video generation device 10 is realized by a general-purpose computer, each component of the control unit 103 includes a CPU (Central Processing Unit) included in the general-purpose computer and a DSP (Digital Signal Processor) that operates under the control of the CPU. Are performed as functions of a general-purpose computer by performing processing in accordance with each module included in the above in parallel.

また、上記においては、イベントデータ再生部204が、動作制御ブロック203に対し送信するイベントデータを画像データブロック202にも送信することにより、動作制御ブロック203と画像データブロック202との動作の連動を実現する場合について説明したが、例えばイベントデータ再生部204が、動作制御ブロック203に送信するイベントデータを音データブロック201にも送信することにより、動作制御ブロック203と音データブロック201との動作の連動を実現するようにしてもよい。音データブロック201と画像データブロック202との動作の連動についても同様である。   In the above description, the event data reproducing unit 204 also transmits event data to be transmitted to the operation control block 203 to the image data block 202 to link the operations of the operation control block 203 and the image data block 202. Although the case where it implement | achieves was demonstrated, the event data reproduction | regeneration part 204 transmits the event data transmitted to the operation control block 203 also to the sound data block 201, for example, and the operation of the operation control block 203 and the sound data block 201 is You may make it implement | achieve interlocking. The same applies to the interlocking of the operations of the sound data block 201 and the image data block 202.

[2.第2実施形態]
上記の第1実施形態においては、ビデオ生成システム1は、ビデオ生成装置10と、ビデオ生成装置10に接続されるマイク12等の各種装置の組合せにより構成されている。しかしながら、本発明にかかるビデオ生成システムの構成部のいずれを組み合わせて同じ筐体に配置するかは自由に変更可能である。図16は、本発明にかかるビデオ生成システムを、図2で示したビデオ生成システム1とは異なる配置により実現したビデオ生成システム2の構成を示したブロック図である。以下、ビデオ生成システム2を本発明の第2実施形態として説明する。
[2. Second Embodiment]
In the first embodiment described above, the video generation system 1 is configured by a combination of a video generation device 10 and various devices such as a microphone 12 connected to the video generation device 10. However, it is possible to freely change which of the constituent parts of the video generation system according to the present invention is combined and arranged in the same housing. FIG. 16 is a block diagram showing a configuration of a video generation system 2 in which the video generation system according to the present invention is realized by an arrangement different from that of the video generation system 1 shown in FIG. Hereinafter, the video generation system 2 will be described as a second embodiment of the present invention.

ただし、ビデオ生成システム2の構成および動作は、ビデオ生成システム1のものと多くの点で共通しているので、以下、ビデオ生成システム2がビデオ生成システム1と異なる点のみ説明する。図16において、ビデオ生成システム2の構成部のうち、ビデオ生成システム1と同様の構成部に関しては、同じ符合が付されている。また、図16においては図の簡略化のため、各構成部間の詳細なデータフローを示す矢印が省略され、また複数個からなる同種の構成部は1つのみ示されている。   However, since the configuration and operation of the video generation system 2 are similar to those of the video generation system 1 in many respects, only the difference between the video generation system 2 and the video generation system 1 will be described below. In FIG. 16, among the components of the video generation system 2, the same components as those of the video generation system 1 are denoted by the same reference numerals. In FIG. 16, for simplification of the drawing, an arrow indicating a detailed data flow between the components is omitted, and only one component of the same kind including a plurality of components is shown.

ビデオ生成システム2は、ビデオ生成システム1のビデオ生成装置10の代わりに、音データ処理装置31、画像データ処理装置32および中央管理装置33を備えている。音データ処理装置31は、ビデオ生成システム1における音データブロック201に含まれる構成部を含む制御部1031と、記憶部1011および入出力I/F1021を備えている。画像データ処理装置32は、ビデオ生成システム1における画像データブロック202に含まれる構成部と超音波受信器19およびマイク位置算出部205を含む制御部1032と、記憶部1012および入出力I/F1022を備えている。中央管理装置33は、ビデオ生成システム1におけるイベントデータ再生部204および課金データ処理部206を含む制御部1033と、記憶部1013および入出力I/F1023を備えている。   The video generation system 2 includes a sound data processing device 31, an image data processing device 32, and a central management device 33 instead of the video generation device 10 of the video generation system 1. The sound data processing device 31 includes a control unit 1031 that includes components included in the sound data block 201 in the video generation system 1, a storage unit 1011, and an input / output I / F 1021. The image data processing device 32 includes a configuration unit included in the image data block 202 in the video generation system 1, a control unit 1032 including the ultrasonic receiver 19 and the microphone position calculation unit 205, a storage unit 1012, and an input / output I / F 1022. I have. The central management device 33 includes a control unit 1033 including an event data reproduction unit 204 and a billing data processing unit 206 in the video generation system 1, a storage unit 1013, and an input / output I / F 1023.

入出力I/F1021〜1023は、ビデオ生成装置10の入出力I/F102と同様に、他の装置との間でデータの入出力を行うためのインタフェースである。記憶部1011〜1013は、ビデオ生成装置10の記憶部101と同様に、制御部1031〜1033による各種処理を指示するプログラムを予め記憶し、また制御部1031〜1033により生成されるデータを一時的に記憶する。また、例えば中央管理装置33の記憶部1013は、予め、複数のストーリデータ1010を記憶している。   The input / output I / Fs 1021 to 1023 are interfaces for inputting / outputting data to / from other devices in the same manner as the input / output I / F 102 of the video generation apparatus 10. Similar to the storage unit 101 of the video generation device 10, the storage units 1011 to 1013 store programs for instructing various processes by the control units 1031 to 1033 in advance, and temporarily store data generated by the control units 1031 to 1033. To remember. Further, for example, the storage unit 1013 of the central management device 33 stores a plurality of story data 1010 in advance.

また、ビデオ生成システム2におけるビデオカメラ15、カメラ移動装置16および照明装置17はそれぞれ、カメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。   The video camera 15, the camera moving device 16, and the lighting device 17 in the video generation system 2 include a camera operation control unit 2031, a moving operation control unit 2032, and an illumination operation control unit 2033, respectively.

ビデオ生成システム2において、ユーザがコントローラ11を用いてイベントデータの再生を指示すると、中央管理装置33はユーザの選択操作により特定されるイベントシーケンスデータに従い、イベントデータの内容に従い、音データ処理装置31、画像データ処理装置32、ビデオカメラ15、カメラ移動装置16および照明装置17の各々にイベントデータを送信する。また、中央管理装置33は、イベントデータの送信に先立ち、もしくは並行して、イベントデータにより指示される処理に要するソースデータを、音データ処理装置31もしくは画像データ処理装置32に送信する。ただし、中央管理装置33がソースデータを送信する代わりに、音データ処理装置31および画像データ処理装置32が、各々処理に必要なソースデータを予め記憶部1011および記憶部1012に記憶しておいてもよい。   In the video generation system 2, when the user instructs the reproduction of the event data using the controller 11, the central management device 33 follows the event sequence data specified by the user's selection operation, and according to the contents of the event data, the sound data processing device 31. Event data is transmitted to each of the image data processing device 32, the video camera 15, the camera moving device 16, and the lighting device 17. The central management device 33 transmits source data required for processing instructed by the event data to the sound data processing device 31 or the image data processing device 32 prior to or in parallel with the transmission of the event data. However, instead of the central management device 33 transmitting the source data, the sound data processing device 31 and the image data processing device 32 store the source data necessary for each processing in the storage unit 1011 and the storage unit 1012 in advance. Also good.

音データ処理装置31は、中央管理装置33から受信したイベントデータに従い、音データの再生処理および加工処理を行い、生成した音データをアンプ13に出力する。また、ユーザにより本番モードが選択されている場合、音データ処理装置31は生成した音データを中央管理装置33に送信し、中央管理装置33は音データ処理装置31から送信された音データを記憶部1013に記憶する。   The sound data processing device 31 performs sound data reproduction processing and processing processing according to the event data received from the central management device 33, and outputs the generated sound data to the amplifier 13. When the production mode is selected by the user, the sound data processing device 31 transmits the generated sound data to the central management device 33, and the central management device 33 stores the sound data transmitted from the sound data processing device 31. Store in the unit 1013.

画像データ処理装置32は、中央管理装置33から受信したイベントデータに従い、画像データの再生処理および加工処理を行い、生成した画像データをディスプレイ18に送信する。また、ユーザにより本番モードが選択されている場合、画像データ処理装置32は生成した画像データを中央管理装置33に送信し、中央管理装置33は画像データ処理装置32から送信された画像データを記憶部1013に記憶する。   The image data processing device 32 performs image data reproduction processing and processing processing according to the event data received from the central management device 33, and transmits the generated image data to the display 18. When the production mode is selected by the user, the image data processing device 32 transmits the generated image data to the central management device 33, and the central management device 33 stores the image data transmitted from the image data processing device 32. Store in the unit 1013.

上記のように、本番モードにおいて記憶部1013に順次記憶された音データおよび画像データは、ユーザが登場人物として参加するビデオデータとして統合され、ユーザの指示により再生、送信、記憶媒体への保存等がなされる。   As described above, the sound data and the image data sequentially stored in the storage unit 1013 in the production mode are integrated as video data in which the user participates as a character, and is played back, transmitted, stored in a storage medium, etc. according to a user instruction Is made.

以上説明したビデオ生成システム2によっても、第1実施形態におけるビデオ生成システム1と同様に、ユーザは気軽にビデオデータの生成に参加することができるとともに、観衆をより楽しませることができるビデオデータを生成することができる。   Also with the video generation system 2 described above, as with the video generation system 1 in the first embodiment, the user can easily participate in the generation of video data and can also enjoy video data that can make the audience more entertaining. Can be generated.

ところで、音データ処理装置31、画像データ処理装置32および中央管理装置33は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。音データ処理装置31、画像データ処理装置32および中央管理装置33が汎用コンピュータにより実現される場合、制御部1031、制御部1032および制御部1033の各構成部は、汎用コンピュータが備えるCPUおよびCPUの制御下で動作するDSPが、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。   By the way, the sound data processing device 31, the image data processing device 32, and the central management device 33 may be realized by dedicated hardware, or may be realized by causing a general-purpose computer to execute processing according to an application program. Good. When the sound data processing device 31, the image data processing device 32, and the central management device 33 are realized by a general-purpose computer, each component of the control unit 1031, the control unit 1032, and the control unit 1033 includes a CPU included in the general-purpose computer and the CPU. A DSP operating under control performs a process according to each module included in the application program in parallel and is realized as a function of a general-purpose computer.

[3.第3実施形態]
上記のビデオ生成システム1およびビデオ生成システム2は、超音波発生器121を備えるマイク12、カメラ移動装置16、照明装置17等の、一般のユーザが所有しないと思われる専用装置を備えている。そのため、一般のユーザが自宅で本発明にかかるビデオデータの生成を行うことは困難である。しかしながら、本発明にかかるビデオ生成システムは、ビデオ生成システム1もしくはビデオ生成システム2が備える全ての構成部を備える必要はない。以下、パーソナルコンピュータに家庭用のディスプレイ、ビデオカメラ、マイク、アンプ、スピーカ等を接続して、パーソナルコンピュータのCPUおよびDSPにアプリケーションプログラムに従った処理を実行させることにより、本発明を実施する場合を第3実施形態として説明する。
[3. Third Embodiment]
The video generation system 1 and the video generation system 2 described above include dedicated devices that a general user does not seem to possess, such as the microphone 12 including the ultrasonic generator 121, the camera moving device 16, and the illumination device 17. Therefore, it is difficult for a general user to generate video data according to the present invention at home. However, the video generation system according to the present invention need not include all the components included in the video generation system 1 or the video generation system 2. Hereinafter, a case in which the present invention is implemented by connecting a home display, a video camera, a microphone, an amplifier, a speaker, etc. to a personal computer and causing the CPU and DSP of the personal computer to execute processing according to an application program will be described. This will be described as a third embodiment.

図17は、第3実施形態にかかるビデオ生成システム3の構成を示したブロック図である。ただし、ビデオ生成システム3の構成および動作は、ビデオ生成システム1のものと多くの点で共通しているので、以下、ビデオ生成システム3がビデオ生成システム1と異なる点のみ説明する。図17において、ビデオ生成システム3の構成部のうち、ビデオ生成システム1と同様の構成部に関しては、同じ符合が付されている。また、図17においては図の簡略化のため、複数個からなる同種の構成部は1つのみ示されている。   FIG. 17 is a block diagram showing the configuration of the video generation system 3 according to the third embodiment. However, since the configuration and operation of the video generation system 3 are common in many respects to those of the video generation system 1, only the differences between the video generation system 3 and the video generation system 1 will be described below. In FIG. 17, among the components of the video generation system 3, the same components as those of the video generation system 1 are given the same reference numerals. In FIG. 17, for simplification of the drawing, only one component of the same kind consisting of a plurality is shown.

ビデオ生成システム3は、パーソナルコンピュータ40と、キーボード41およびディスプレイ18が接続されたパーソナルコンピュータ40に、さらに、家庭用のマイク12、アンプ13、スピーカ14、ビデオカメラ15、およびメディアドライブ20を接続して得られる構成を備えている。キーボード41は複数のキーを備え、ユーザによるキーの押下操作に応じて、押下されたキーに対応する信号をパーソナルコンピュータ40に送信することにより、ユーザの指示をパーソナルコンピュータ40に入力する機能を備える。   The video generation system 3 further connects a home microphone 12, an amplifier 13, a speaker 14, a video camera 15, and a media drive 20 to the personal computer 40 and the personal computer 40 to which the keyboard 41 and the display 18 are connected. It has a configuration that can be obtained. The keyboard 41 includes a plurality of keys, and has a function of inputting a user instruction to the personal computer 40 by transmitting a signal corresponding to the pressed key to the personal computer 40 in response to a key pressing operation by the user. .

パーソナルコンピュータ40は、RAM(Random Access Memory)、ROM(Read Only Memory)、HD(Hard Disk)等により構成される記憶部101と、1以上のCPUおよびDSPにより構成される制御部103と、入出力I/F102を備えている。   The personal computer 40 includes a storage unit 101 composed of RAM (Random Access Memory), ROM (Read Only Memory), HD (Hard Disk), etc., and a control unit 103 composed of one or more CPUs and DSPs. An output I / F 102 is provided.

制御部103は、記憶部101に記憶されているアプリケーションプログラムに従った処理を実行することにより、音源部2011、音データ再生部2012および音データ加工処理部2013を含む音データブロック201と、動画データ再生部2021、文字画面生成部2022、レンダリング処理部2023、トリミング処理部2024および画像データ加工処理部2025を含む画像データブロック202と、カメラ動作制御部2031と、イベントデータ再生部204の各機能を実現する。   The control unit 103 executes processing according to the application program stored in the storage unit 101, thereby performing a sound data block 201 including a sound source unit 2011, a sound data reproduction unit 2012, and a sound data processing unit 2013, and a moving image Functions of an image data block 202 including a data reproduction unit 2021, a character screen generation unit 2022, a rendering processing unit 2023, a trimming processing unit 2024, and an image data processing unit 2025, a camera operation control unit 2031, and an event data reproduction unit 204 Is realized.

ビデオ生成システム3のマイク12は超音波発生器121を備えておらず、またパーソナルコンピュータ40には超音波受信器19が接続されていない。従って、パーソナルコンピュータ40は超音波によるマイク位置の算出処理は行わず、マイク位置に基づくユーザの特定処理も行わない。その代わり、パーソナルコンピュータ40のトリミング処理部2024が、ユーザの画像データに基づき、各ユーザの特定処理を行う。   The microphone 12 of the video generation system 3 does not include the ultrasonic generator 121, and the ultrasonic receiver 19 is not connected to the personal computer 40. Accordingly, the personal computer 40 does not perform processing for calculating the microphone position using ultrasonic waves, and does not perform user identification processing based on the microphone position. Instead, the trimming processing unit 2024 of the personal computer 40 performs each user's specifying process based on the user's image data.

より具体的には、まず、複数のユーザの各々は異なる色のマーカを胸等に装着する。ビデオカメラ15により撮像される画像データには、ユーザの画像とともに、マーカの画像が含まれている。トリミング処理部2024は、ビデオカメラ15より画像データを受信すると、トリミング処理によりユーザ画像データを生成し、ユーザ画像データから、ユーザが胸等に装着したマーカの各々の色を示すデータを抽出する。トリミング処理部2024は、いずれの色のデータがいずれのユーザ画像データの位置から抽出されたものであるかを特定し、異なるユーザの画像を示すユーザ画像データの各々に対し、対応する色を示すデータを付加して、レンダリング処理部2023に送信する。レンダリング処理部2023は、ユーザ画像データに付加されている色を示すデータに基づき、いずれのユーザ画像データがいずれのユーザを示すものであるかを特定することができる。   More specifically, first, each of the plurality of users wears different color markers on the chest or the like. The image data captured by the video camera 15 includes a marker image as well as the user image. When receiving the image data from the video camera 15, the trimming processing unit 2024 generates user image data by the trimming process, and extracts data indicating each color of the marker worn on the chest or the like by the user from the user image data. The trimming processing unit 2024 identifies which color data is extracted from which user image data position, and indicates the corresponding color for each of the user image data indicating images of different users. Data is added and transmitted to the rendering processing unit 2023. The rendering processing unit 2023 can specify which user image data indicates which user based on the data indicating the color added to the user image data.

パーソナルコンピュータ40がユーザとユーザの画像データとを対応付ける方法は、上記のものに限られない。例えば、ユーザの各々の画像データを予めパーソナルコンピュータ40に記憶させておき、パーソナルコンピュータ40の画像データブロック202が、ビデオカメラ15から受信した画像データから複数のユーザ画像データを生成した場合、予め記憶されている各々のユーザの画像データと生成したユーザ画像データの各々を比較して、類似度の高いものを各々対応付けるようにしてもよい。   The method in which the personal computer 40 associates the user with the user's image data is not limited to the above. For example, when each image data of the user is stored in the personal computer 40 in advance, and the image data block 202 of the personal computer 40 generates a plurality of user image data from the image data received from the video camera 15, it is stored in advance. It is also possible to compare the image data of each user and the generated user image data so as to associate them with each other having a high degree of similarity.

上記のように、ビデオ生成システムがマイク位置を算出する機能を備えない場合、ビデオ生成システムは各ユーザの3次元空間における正確な位置を特定することは困難であるが、ユーザ画像データの位置および大きさに基づき、各ユーザの3次元空間におけるおよその位置を特定することが可能である。   As described above, when the video generation system does not have a function of calculating the microphone position, it is difficult for the video generation system to specify an accurate position of each user in the three-dimensional space. Based on the size, it is possible to specify an approximate position of each user in the three-dimensional space.

さらに、パーソナルコンピュータ40にはカメラ移動装置16および照明装置17は接続されておらず、従って、パーソナルコンピュータ40はビデオカメラ15の移動動作の制御処理および照明装置17の制御処理を行わない。その代わり、パーソナルコンピュータ40の画像データ加工処理部2025が、イベントデータ再生部204から受信するイベントデータに従い、各種の画像データの加工処理を行うことにより、ビデオカメラ15が移動された場合に得られる画像データや、照明の色や明るさが変更された場合に得られる画像データと類似の画像データを生成する。   Further, the camera moving device 16 and the lighting device 17 are not connected to the personal computer 40, and therefore the personal computer 40 does not perform the control processing of the moving operation of the video camera 15 and the control processing of the lighting device 17. Instead, it is obtained when the video camera 15 is moved by the image data processing unit 2025 of the personal computer 40 performing various types of image data processing according to the event data received from the event data playback unit 204. Image data or image data similar to image data obtained when the color or brightness of illumination is changed is generated.

以上説明したビデオ生成システム3によれば、ユーザは自宅等において、気軽に自分が登場人物として参加するビデオデータの生成を行うことができる。   According to the video generation system 3 described above, the user can easily generate video data in which he / she participates as a character at home or the like.

本発明の第1実施形態にかかるビデオ生成システムをブースに設置した様子を示している。The mode that the video generation system concerning 1st Embodiment of this invention was installed in the booth is shown. 本発明の第1実施形態にかかるビデオ生成システムの構成を示したブロック図である。It is the block diagram which showed the structure of the video production | generation system concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるストーリデータの構成を模式的に示した図である。It is the figure which showed typically the structure of the story data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる管理データの内容を例示した図である。It is the figure which illustrated the contents of the management data concerning a 1st embodiment of the present invention. 本発明の第1実施形態にかかるバックグラウンドサウンドに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the background sound concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるバックグラウンドイメージに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the background image concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるキャラクタイメージに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the character image concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるダイアログに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the dialog concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるマイクエフェクトに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the microphone effect concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるカメラワークに関するイベントシーケンスデータの内容を例示した図である。It is the figure which illustrated the content of the event sequence data regarding the camera work concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるアレンジデータの内容を模式的に示した図である。It is the figure which showed typically the content of the arrangement data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる超音波受信器を配置したブースを上方から見た図である。It is the figure which looked at the booth which has arrange | positioned the ultrasonic receiver concerning 1st Embodiment of this invention from upper direction. 本発明の第1実施形態にかかるビデオ生成システムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the video generation system concerning a 1st embodiment of the present invention. 本発明の第1実施形態にかかるビデオ生成システムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the video generation system concerning a 1st embodiment of the present invention. 本発明の第1実施形態にかかるビデオ生成システムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the video generation system concerning a 1st embodiment of the present invention. 本発明の第2実施形態にかかるビデオ生成システムの構成を示したブロック図である。It is the block diagram which showed the structure of the video production | generation system concerning 2nd Embodiment of this invention. 本発明の第3実施形態にかかるビデオ生成システムの構成を示したブロック図である。It is the block diagram which showed the structure of the video production | generation system concerning 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1・2・3…ビデオ生成システム、10…ビデオ生成装置、11…コントローラ、12…マイク、13…アンプ、14…スピーカ、15…ビデオカメラ、16…カメラ移動装置、17…照明装置、18…ディスプレイ、19…超音波受信器、20…メディアドライブ、21…インターネット、31…音データ処理装置、32…画像データ処理装置、33…中央管理装置、40…パーソナルコンピュータ、41…キーボード、101・1011・1012・1013…記憶部、102・1021・1022・1023…入出力I/F、103・1031・1032・1033…制御部、121…超音波発生器、201…音データブロック、202…画像データブロック、203…動作制御ブロック、204…イベントデータ再生部、205…マイク位置算出部、206…課金データ処理部、1010…ストーリデータ、2011…音源部、2012…音データ再生部、2013…音データ加工処理部、2021…動画データ再生部、2022…文字画面生成部、2023…レンダリング処理部、2024…トリミング処理部、2025…画像データ加工処理部、2031…カメラ動作制御部、2032…移動動作制御部、2033…照明動作制御部。   DESCRIPTION OF SYMBOLS 1 * 2 * 3 ... Video generation system, 10 ... Video generation apparatus, 11 ... Controller, 12 ... Microphone, 13 ... Amplifier, 14 ... Speaker, 15 ... Video camera, 16 ... Camera movement apparatus, 17 ... Illumination apparatus, 18 ... Display, 19 ... Ultrasonic receiver, 20 ... Media drive, 21 ... Internet, 31 ... Sound data processing device, 32 ... Image data processing device, 33 ... Central management device, 40 ... Personal computer, 41 ... Keyboard, 101/1011 · 1012 · 1013 ··· storage unit, 102 · 1021 · 1022 · 1023 · · I / F, 103 · 1031 · 1032 · 1033 · · · control unit, 121 · ultrasonic generator, 201 · sound data block · 202 · image data Block, 203 ... Operation control block, 204 ... Event data reproduction unit, 205 ... Ma Position calculation unit 206 ... billing data processing unit 1010 ... story data 2011 ... sound source unit 2012 ... sound data reproduction unit 2013 ... sound data processing unit 2021 ... video data reproduction unit 2022 ... character screen generation unit , 2023 ... rendering processing unit, 2024 ... trimming processing unit, 2025 ... image data processing processing unit, 2031 ... camera operation control unit, 2032 ... moving operation control unit, 2033 ... lighting operation control unit.

Claims (13)

ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、
前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段と
を備えることを特徴とするデータ処理装置。
Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of the instruction at a timing according to the timing data associated with the operation instruction data;
Image processing instruction data transmitting means for transmitting the image processing instruction data to an image data processing device that processes user image data at a timing according to timing data associated with the image processing instruction data. A data processing apparatus.
ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、
前記画像処理指示データを、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを加工処理する画像データ処理装置に送信する画像処理指示データ送信手段と
を備えることを特徴とするデータ処理装置。
Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
Operation instruction notification means for notifying the user of instruction indicated by the operation instruction data at a timing according to timing data associated with the operation instruction data;
Image processing instruction data transmitting means for transmitting the image processing instruction data to an image data processing device that processes user image data at a timing according to timing data associated with the image processing instruction data. A data processing apparatus.
ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データを、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し指導の通知を行う通知装置に送信する動作指導データ送信手段と、
撮像装置より、ユーザの画像データを受信する画像データ受信手段と、
前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段と
を備えることを特徴とするデータ処理装置。
Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
The operation instruction data transmitting means for transmitting the operation instruction data to a notification device that notifies the user of the instruction at a timing according to the timing data associated with the operation instruction data;
Image data receiving means for receiving user image data from the imaging device;
Image data processing means for performing processing on the image data of the user at a timing corresponding to timing data associated with the image processing instruction data. Data processing device.
ユーザが行うべき動作の指導を示す動作指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指導データ記憶手段と、
画像データに対し実行されるべき加工処理を指示する画像処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する画像処理指示データ記憶手段と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する動作指導通知手段と、
撮像装置より、ユーザの画像データを受信する画像データ受信手段と、
前記画像処理指示データにより指示される加工処理を、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データに対し行う画像データ処理手段と
を備えることを特徴とするデータ処理装置。
Operation instruction data storage means for storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the instruction should be notified to the user;
Image processing instruction data storage means for storing image processing instruction data for instructing processing to be executed on image data in association with timing data indicating timing at which the processing is to be executed;
Operation instruction notification means for notifying the user of instruction indicated by the operation instruction data at a timing according to timing data associated with the operation instruction data;
Image data receiving means for receiving user image data from the imaging device;
Image data processing means for performing processing on the image data of the user at a timing corresponding to timing data associated with the image processing instruction data. Data processing device.
前記画像データ処理手段による加工処理の結果生成される画像データにより示される画像を表示する表示手段
をさらに備えることを特徴とする請求項3または4のいずれかに記載のデータ処理装置。
5. The data processing apparatus according to claim 3, further comprising a display unit configured to display an image indicated by image data generated as a result of the processing performed by the image data processing unit.
前記画像データ処理手段による加工処理の結果生成される画像データを記憶する画像データ記憶手段
をさらに備えることを特徴とする請求項3または4のいずれかに記載のデータ処理装置。
The data processing apparatus according to claim 3, further comprising an image data storage unit that stores image data generated as a result of the processing by the image data processing unit.
ユーザが行うべき発声の指導を示す発声指導データを、当該指導がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する発声指導データ記憶手段と、
音声データに対し実行されるべき加工処理を指示する音声処理指示データを、当該加工処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する音声処理指示データ記憶手段と、
前記発声指導データにより示される指導を、前記発声指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する発声指導通知手段と、
拾音装置より、ユーザの音声データを受信する音声データ受信手段と、
前記音声処理指示データにより指示される加工処理を、前記音声処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの音声データに対し行う音声データ処理手段と
をさらに備えることを特徴とする請求項1乃至4のいずれかに記載のデータ処理装置。
Utterance instruction data storage means for storing utterance instruction data indicating instruction of utterance to be performed by the user in association with timing data indicating timing at which the instruction should be notified to the user;
Voice processing instruction data storage means for storing voice processing instruction data for instructing processing to be executed on the voice data in association with timing data indicating timing at which the processing is to be executed;
Utterance instruction notification means for notifying the user of instruction indicated by the utterance instruction data at a timing according to timing data associated with the utterance instruction data;
Voice data receiving means for receiving user voice data from the sound pickup device;
Voice data processing means for performing a processing process instructed by the voice processing instruction data on the voice data of the user at a timing according to timing data associated with the voice processing instruction data. A data processing apparatus according to any one of claims 1 to 4.
前記音声データ処理手段による加工処理の結果生成される音データにより示される音を発音する発音手段
をさらに備えることを特徴とする請求項7に記載のデータ処理装置。
The data processing apparatus according to claim 7, further comprising: sound generation means for generating a sound indicated by sound data generated as a result of the processing by the sound data processing means.
前記音声データ処理手段による加工処理の結果生成される音データを記憶する音データ記憶手段
をさらに備えることを特徴とする請求項7に記載のデータ処理装置。
The data processing apparatus according to claim 7, further comprising: sound data storage means for storing sound data generated as a result of processing by the sound data processing means.
撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、
前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信する動作指示データ送信手段と
をさらに備えることを特徴とする請求項1乃至4のいずれかに記載のデータ処理装置。
An operation for storing operation instruction data instructing an operation to be executed by at least one of the imaging device, a moving device for moving the imaging device, and an illumination device in association with timing data indicating a timing at which the operation is to be executed Instruction data storage means;
The operation instruction data is irradiated with light to an imaging device that generates user image data, a moving device that moves the imaging device, and a user at a timing according to timing data associated with the operation instruction data. The data processing device according to claim 1, further comprising: an operation instruction data transmitting unit that transmits to at least one of the lighting devices to be performed.
撮像装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき動作を指示する動作指示データを、当該動作が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する動作指示データ記憶手段と、
前記動作指示データを、前記動作指示データに対応付けられたタイミングデータに応じたタイミングで、ユーザの画像データを生成する撮像装置、当該撮像装置の移動を行う移動装置およびユーザに対し光の照射を行う照明装置の少なくとも1に送信するとともに、前記画像データ処理手段にも送信する動作指示データ送信手段と
をさらに備え、
前記画像データ処理手段は、前記ユーザの画像データに対し、前記動作指示データに従った加工処理を行う
ことを特徴とする請求項3または4のいずれかに記載のデータ処理装置。
An operation for storing operation instruction data instructing an operation to be executed by at least one of the imaging device, a moving device for moving the imaging device, and an illumination device in association with timing data indicating a timing at which the operation is to be executed Instruction data storage means;
The operation instruction data is irradiated with light to an imaging device that generates user image data, a moving device that moves the imaging device, and a user at a timing according to timing data associated with the operation instruction data. An operation instruction data transmitting means for transmitting to at least one of the lighting devices to be performed and also for transmitting to the image data processing means,
5. The data processing apparatus according to claim 3, wherein the image data processing unit performs processing on the image data of the user according to the operation instruction data.
前記画像データ受信手段により順次受信されるユーザの画像データの時間的な変化に応じて変化する画像データを順次生成する画像データ生成手段をさらに備え、
前記画像データ処理手段は、前記ユーザの画像データに代えて、もしくは前記ユーザの画像データに加えて、前記画像データ生成手段により生成された画像データに対し、前記画像処理指示データに従った加工処理を行う
ことを特徴とする請求項4に記載のデータ処理装置。
Image data generating means for sequentially generating image data that changes in response to temporal changes in user image data sequentially received by the image data receiving means;
The image data processing means performs processing according to the image processing instruction data on the image data generated by the image data generation means instead of or in addition to the user image data. The data processing apparatus according to claim 4, wherein:
ユーザが行うべき動作の指導を示す動作指導データを、当該情報がユーザに対し通知されるべきタイミングを示すタイミングデータと対応付けて記憶する処理と、
画像データに対し実行されるべき処理を指示する画像処理指示データを、当該処理が実行されるべきタイミングを示すタイミングデータと対応付けて記憶する処理と、
前記動作指導データにより示される指導を、前記動作指導データに対応付けられたタイミングデータに応じたタイミングで、ユーザに対し通知する処理と、
撮像装置より、ユーザの画像データを受信する処理と、
前記画像処理指示データに従い、前記画像処理指示データに対応付けられたタイミングデータに応じたタイミングで、前記ユーザの画像データを加工する処理と、
前記加工の結果生成される画像データにより示される画像を表示する処理と、
前記加工の結果生成される画像データを記憶する処理と
をコンピュータに実行させることを特徴とするプログラム。
A process of storing operation instruction data indicating instruction of an operation to be performed by the user in association with timing data indicating a timing at which the information is to be notified to the user;
Processing for storing image processing instruction data for instructing processing to be performed on image data in association with timing data indicating timing at which the processing should be performed;
A process of notifying the user of the guidance indicated by the motion guidance data at a timing according to the timing data associated with the motion guidance data;
A process of receiving user image data from the imaging device;
Processing the user's image data at a timing according to the timing data associated with the image processing instruction data according to the image processing instruction data;
Processing for displaying an image indicated by image data generated as a result of the processing;
A program for causing a computer to execute processing for storing image data generated as a result of the processing.
JP2005026911A 2005-02-02 2005-02-02 Data processor and program for generating multimedia data Withdrawn JP2006217183A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005026911A JP2006217183A (en) 2005-02-02 2005-02-02 Data processor and program for generating multimedia data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005026911A JP2006217183A (en) 2005-02-02 2005-02-02 Data processor and program for generating multimedia data

Publications (1)

Publication Number Publication Date
JP2006217183A true JP2006217183A (en) 2006-08-17

Family

ID=36980033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005026911A Withdrawn JP2006217183A (en) 2005-02-02 2005-02-02 Data processor and program for generating multimedia data

Country Status (1)

Country Link
JP (1) JP2006217183A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271787A (en) * 2008-05-08 2009-11-19 Kawai Musical Instr Mfg Co Ltd Performance image creation device, performance image creation method, performance image creation program and recording medium
JP2010028715A (en) * 2008-07-24 2010-02-04 Brother Ind Ltd Conference image generation method, conference system, server device, conference device and the like
JP2011527863A (en) * 2008-07-08 2011-11-04 シーンプレイ インコーポレイテッド Medium generation system and method
JP2012530404A (en) * 2009-06-13 2012-11-29 ロールスター インコーポレイテッド System for juxtaposing scenes recorded separately

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271787A (en) * 2008-05-08 2009-11-19 Kawai Musical Instr Mfg Co Ltd Performance image creation device, performance image creation method, performance image creation program and recording medium
JP2011527863A (en) * 2008-07-08 2011-11-04 シーンプレイ インコーポレイテッド Medium generation system and method
US9002177B2 (en) 2008-07-08 2015-04-07 Sceneplay, Inc. Media generating system and method
US10346001B2 (en) 2008-07-08 2019-07-09 Sceneplay, Inc. System and method for describing a scene for a piece of media
US10936168B2 (en) 2008-07-08 2021-03-02 Sceneplay, Inc. Media presentation generating system and method using recorded splitscenes
US12032810B1 (en) 2008-07-08 2024-07-09 Sceneplay, Inc. Media generating system and method
JP2010028715A (en) * 2008-07-24 2010-02-04 Brother Ind Ltd Conference image generation method, conference system, server device, conference device and the like
JP2012530404A (en) * 2009-06-13 2012-11-29 ロールスター インコーポレイテッド System for juxtaposing scenes recorded separately

Similar Documents

Publication Publication Date Title
US10725729B2 (en) Virtual and real object recording in mixed reality device
US7053915B1 (en) Method and system for enhancing virtual stage experience
Allison More than a man in a monkey suit: Andy Serkis, motion capture, and digital realism
US9667574B2 (en) Animated delivery of electronic messages
CN104700860B (en) Rhythm imaging method and system
JPH11219446A (en) Audiovisual reproduction system
JP2015520403A (en) Karaoke dancing game
TW201233413A (en) Input support device, input support method, and recording medium
US20240203058A1 (en) System and method for performance in a virtual reality environment
US10116604B2 (en) Animated delivery of electronic messages
US7554542B1 (en) Image manipulation method and system
JP4981370B2 (en) Movie generation system and movie generation method
JP5803172B2 (en) Evaluation device
CN110213560A (en) A kind of immersion video broadcasting method and system
JP2021140065A (en) Processing systems, sound systems and programs
JP2020194030A (en) Karaoke system
JP2006217183A (en) Data processor and program for generating multimedia data
Hukerikar Analyzing the language of immersive animation filmmaking: A study of syntax and narrative techniques in virtual reality
JP6313003B2 (en) Karaoke apparatus, image output method, and program
Bevacqua et al. Real and virtual body percussionists interaction
Hamilton Perceptually coherent mapping schemata for virtual space and musical method
WO2025121219A1 (en) Information processing apparatus, method, and program
Sallade A Taxonomy for Immersive Audio Techniques in Video Game Sound Design
Feitsch et al. Tangible and body-related interaction techniques for a singing voice synthesis installation
Heikkilä An ode to listening: sound diegesis and the perception of space in linear and non-linear narrative

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071217

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090128