[go: up one dir, main page]

JP2004086592A - Moving image generating method and moving image generating program - Google Patents

Moving image generating method and moving image generating program Download PDF

Info

Publication number
JP2004086592A
JP2004086592A JP2002247123A JP2002247123A JP2004086592A JP 2004086592 A JP2004086592 A JP 2004086592A JP 2002247123 A JP2002247123 A JP 2002247123A JP 2002247123 A JP2002247123 A JP 2002247123A JP 2004086592 A JP2004086592 A JP 2004086592A
Authority
JP
Japan
Prior art keywords
motion
data
moving image
still image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002247123A
Other languages
Japanese (ja)
Inventor
Junko Kimura
木村 潤子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2002247123A priority Critical patent/JP2004086592A/en
Publication of JP2004086592A publication Critical patent/JP2004086592A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】作業者(観察者)の操作を最小限にして、静止画中の所望のオブジェクトを動作させる。
【解決手段】入力部12は、画像DBから、特定の静止画に対応する画像データを抽出する。編集制御部16は、静止画中の動作させる少なくとも1つのオブジェクト、当該オブジェクトの種別および動作を特定し、特定の種別のオブジェクトの動作パターンを記憶したモーションDBを参照して、前記オブジェクトの種別および動作が、前記動作パターン中に存在するか否かを判断する。動作パターンが存在すれば、当該動作パターンに基づき、オブジェクトの動作データが生成される。動作パターンが存在しない場合に、モデリング処理部20が、オブジェクトの動作データを生成する。編集部14は、静止画データおよび動作データに基づき、特定されたオブジェクトが動作するような動画データを生成する。
【選択図】 図1
A desired object in a still image is moved while minimizing the operation of an operator (observer).
An input unit extracts image data corresponding to a specific still image from an image DB. The editing control unit 16 specifies at least one object to be operated in the still image, the type and the operation of the object, and refers to the motion DB storing the operation pattern of the object of the specific type, and It is determined whether an operation exists in the operation pattern. If a motion pattern exists, motion data of the object is generated based on the motion pattern. If no motion pattern exists, the modeling processing unit 20 generates motion data of the object. The editing unit 14 generates moving image data such that the specified object operates based on the still image data and the operation data.
[Selection diagram] Fig. 1

Description

【0001】
【発明が属する技術分野】
本発明は、動画像の生成に関し、より詳細には、静止画像から一定の動画像を作り出す手法に関する。
【0002】
【従来の技術】
いわゆるCG(Computer Graphics)の発展にともなって、静止画に基づき動画を作り出すことが可能となっている。たとえば、変化の前後の静止画に基づき、その変化の過程を示す複数のフレーム画像を作るモーフィング、あるオブジェクトを種々の方向から撮影し、これらを繋ぎ合わせ、任意の方向からのオブジェクトの画像を得る、つまり、オブジェクトを任意に回転させたような動画を得ることができるQTVR(QuickTime(登録商標)Virtual
Reality)などが実用化されている。
【0003】
また、元の静止画を含め、選択したオブジェクトが移動するありさまをフレームごとに形成して複数のフレーム画像を作成し、これにより、動画を作り出す技術も映画などで利用されている。
【0004】
【発明が解決しようとする課題】
モーフィングなどにおいては、変化の前後或いは変化の過程を示す複数の静止画が必要であり、また、その動きが制限されるという問題点があった。つまり、変化の前後を示す静止画の範囲内でしか、動作オブジェクトを動作させることができないという問題点があった。
【0005】
その一方、映画などで用いられている大規模なCGでは、フレームごとに静止画が生成されている。しかしながら、これは、著しく高性能な画像処理システムを利用する必要があり、また、フレームごとの静止画を作成し、多数の静止画を必要とするため、ディジタル記録通信が要求されるような媒体では、著しく大量のデータ容量を要する。その上、情報学的には、隣接フレームデータを送信、記録するという点で性能が悪いという問題点があった。
【0006】
その一方、ある静止画中のオブジェクト(たとえば、人物や動物)の口や目など動作させるべき部分にワイヤフレームを作成し、これを動かすことで、オブジェクトがあたかも喋っているかのような効果を奏する技術が提案されている。しかしながら、この技術においては、オペレータが、顔の特徴点を結ぶワイヤフレームを作成するために種々の入力をする必要がある。その一方、その可動範囲は顔などに限られてしまう。
【0007】
本発明は、作業者(観察者)の操作を最小限にして、静止画中の所望のオブジェクトを動作させることができるシステムを提供することを目的とする。また、本発明は、マルチユーザの環境下で、同一の静止画中の複数のオブジェクトが選択された場合に、それぞれが動作している動画を生成するシステムを提供することを目的とする。さらに、本発明は、データ量をそれほど増大させることなく、動画像の再生を実現するシステムを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の目的は、静止画に対応する画像データから、当該静止画中のオブジェクトが動作する動画データを生成するため、画像DBから所定の静止画を取り出す入力部と、取り出された静止画に基づく動画像を生成する動画像生成部と、生成された動画データを所定の出力形態に変換する出力部とを利用した動画生成方法であって、前記入力部において、画像DBから、特定の静止画に対応する画像データを抽出するステップと、前記動画像生成部において、前記静止画中の動作させる少なくとも1つのオブジェクト、当該オブジェクトの種別および動作を特定するステップと、特定の種別のオブジェクトの動作パターンを記憶したモーションDBを参照して、前記オブジェクトの種別および動作が、前記動作パターン中に存在するか否かを判断するステップと、前記モーションDB中の動作パターンが存在する場合に、当該動作パターンを読み出して、これに基づき、前記オブジェクトの動作データを生成するステップと、前記モーションDB中に動作パターンが存在しない場合に、モデリング処理により、特定されたオブジェクトの動作データを生成するステップと、前記静止画データおよび動作データに基づき、特定されたオブジェクトが動作するような動画データを生成するステップと、前記出力部において、前記動画データを、選択された出力形態にしたがって変換するステップとを備えたことを特徴とする動画生成方法により達成される。
【0009】
本発明によれば、選択されたオブジェクトの動作データを、モーションDB中の動作パターンから、或いは、モデリング処理により生成し、これを、静止画の画像データに付加することで、動画を生成する。したがって、ユーザが、オブジェクトの指定など、必要な最低限の指示を入力することにより、所望のオブジェクトが動作したような動画像を得ることができる。つまり、ワイヤフレームの設定など煩雑な入力を省略することが可能となる。
また、本発明によれば、モーションDB中に対応する動作パターンが、その動作パターンに基づいて動作データが生成される。これにより、動作データ生成のための負荷を小さくすることができる。
【0010】
なお、生成される動画データは、フレームごとの静止画データの集合体ではなく、静止画データと動作データとの集合体として形成されているのが望ましい。これにより、静止データの集合体として動画データをもつ場合と比較して、著しくデータ量を小さくすることができ、小規模なパーソナルコンピュータによるデータ生成やデータ処理が可能となる。
【0011】
好ましい実施態様においては、前記動作パターン中に存在するか否かを判断するステップが、前記オブジェクト中の所定の特徴点の位置と、前記動作パターン中の関連する特徴点の位置とを比較し、当該比較に基づき、前記オブジェクトの動作に適した動作パターンの有無を判断するとともに、適した動作パターンを選択するステップを有する。この実施態様によれば、より適切な動作パターンを選択し、オブジェクトが円滑に動作するような動作データを生成することが可能となる。
【0012】
また、好ましい実施態様においては、前記モデリング処理による動作データを生成するステップが、フラクタルモデリングにより、選択されたオブジェクトを動作させた動作データを生成するように構成されている。無論、他のモデリングを利用して動作データを生成しても良い。
【0013】
別の好ましい実施態様においては、さらに、ユーザインタフェースを介して、ユーザからの、静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップを備え、前記受理した情報に基づき、前記動作パターン中に存在するか否かを判断するように構成されている。
【0014】
より好ましい実施態様においては、複数のユーザから、単一の静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップと、前記情報ごとに、前記動作パターン中に存在するか否かを判断して、前記モーションDB中の動作パターンに基づく動作データの生成、および、モデリング処理による動作データの生成のいずれかを実行するステップとを備え、前記指定されたオブジェクトのそれぞれの動作データを用いて、それぞれのオブジェクトが動作するような動画データを生成するように構成されている。
【0015】
上記実施態様によれば、マルチユーザの環境下においても、ユーザによるオブジェクトなどの指定に、それぞれ応答して、オブジェクトの動作データが生成され、それぞれのオブジェクトが動作するような動画を作ることが可能となる。なお、単一のユーザが複数のオブジェクトを指定し、これに基づき、オブジェクトがそれぞれ動作するような動画を作り出せることも言うまでもない。
別の好ましい実施態様においては、前記動画データを生成するステップが、静止画の次のフレーム以降に特定されたオブジェクトがそれぞれ動作するような動作データを付加するステップを有する。
【0016】
さらに別の好ましい実施態様においては、前記動画データを、選択された出力形態にしたがって変換するステップが、動画を表示する情報処理装置および/または当該情報処理装置までのデータ伝送経路の状態に基づき、複数の階層的な出力フォーマットから選択された所定のフォーマットによるデータを生成し、出力するステップを有する。
【0017】
また、本発明の目的は、静止画に対応する画像データから、当該静止画中のオブジェクトが動作する動画データを生成するため、画像DBから所定の静止画を取り出す入力部と、取り出された静止画に基づく動画像を生成する動画像生成部と、生成された動画データを所定の出力形態に変換する出力部とを利用して動画を生成するために、コンピュータにより読み取り可能なプログラムであって、前記入力部において、画像DBから、特定の静止画に対応する画像データを抽出するステップと、前記動画像生成部において、前記静止画中の動作させる少なくとも1つのオブジェクト、当該オブジェクトの種別および動作を特定するステップと、特定の種別のオブジェクトの動作パターンを記憶したモーションDBを参照して、前記オブジェクトの種別および動作が、前記動作パターン中に存在するか否かを判断するステップと、前記モーションDB中の動作パターンが存在する場合に、当該動作パターンを読み出して、これに基づき、前記オブジェクトの動作データを生成するステップと、前記モーションDB中に動作パターンが存在しない場合に、モデリング処理により、特定されたオブジェクトの動作データを生成するステップと、前記静止画データおよび動作データに基づき、特定されたオブジェクトが動作するような動画データを生成するステップと、前記出力部において、前記動画データを、選択された出力形態にしたがって変換するステップとを、前記コンピュータに実行させることを特徴とするプログラムによっても達成される。
【0018】
好ましい実施態様においては、前記動作パターン中に存在するか否かを判断するステップにおいて、前記オブジェクト中の所定の特徴点の位置と、前記動作パターン中の関連する特徴点の位置とを比較し、当該比較に基づき、前記オブジェクトの動作に適した動作パターンの有無を判断するとともに、適した動作パターンを選択するステップを、前記コンピュータに実行させる。
また、好ましい実施態様においては、モデリング処理による動作データを生成するステップにおいて、フラクタルモデリングにより、選択されたオブジェクトを動作させた動作データを生成するステップを、前記コンピュータに実行させる。
【0019】
より好ましい実施態様においては、さらに、ユーザインタフェースを介して、ユーザからの、静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップを、前記コンピュータに実行させ、前記受理した情報に基づき、前記動作パターン中に存在するか否かを判断するように、前記コンピュータを動作させる。
【0020】
さらに、複数のユーザから、単一の静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップと、前記情報ごとに、前記動作パターン中に存在するか否かを判断して、前記モーションDB中の動作パターンに基づく動作データの生成、および、モデリング処理による動作データの生成のいずれかを実行するステップとを、前記コンピュータに実行させ、前記指定されたオブジェクトのそれぞれの動作データを用いて、それぞれのオブジェクトが動作するような動画データを生成するように、前記コンピュータを動作させるのが望ましい。
【0021】
別の好ましい実施態様においては、前記動画データを生成するステップにおいて、静止画の次のフレーム以降に特定されたオブジェクトがそれぞれ動作するような動作データを付加するステップを、前記コンピュータに実行させる。
また、前記動画データを、選択された出力形態にしたがって変換するステップにおいて、動画を表示する情報処理装置および/または当該情報処理装置までのデータ伝送経路の状態に基づき、複数の階層的な出力フォーマットから選択された所定のフォーマットによるデータを生成し、出力するステップを、前記コンピュータに実行させても良い。
【0022】
【発明の実施の形態】
以下、添付図面を参照して、本発明の実施の形態につき説明を加える。図1は、本実施の形態にかかる動画生成システムの概略を示すブロックダイヤグラムである。本実施の形態にかかる動画生成システム10は、写真、絵画、線画、文字など任意の静止画に基づき、後述する処理により、所定のオブジェクトに動作を与え、動画を生成する。なお、ここでオブジェクトとは、画像中の人物、動物(たとえば、犬、猫など)、植物(たとえば、花、葉など)のほか、車など無生物を含む。また、現実世界では移動しないと思われるもの(たとえば、木、山、建物)も、本実施の形態におけるオブジェクトに含まれる。
【0023】
図1に示すように、本実施の形態にかかる動画生成システム10は、動画や種々の画像データから、処理対象となる静止画データを抽出する入力部12と、静止画データから動画データを作成する編集部14と、動画データ作成のために、入力されたデータなどにしたがって、編集部14などを制御する編集制御部16と、種々のオブジェクトの動きを示すデータ群を記憶したモーションDB18と、所定のオブジェクトに、動きを与え、所定の動作データを生成するモデリング処理部20と、編集部14から与えられる動画データにしたがって、所定のフォーマットのデータを生成して出力する出力部22と、ユーザからの入力を受理し、必要な処理を施した後、他の構成要素(たとえば、編集制御部16)に渡すユーザインタフェース(I/F)24とを有している。ここで、編集部14、編集制御部16、モーションDB18およびモデリング処理部20により、動画像生成部が形成される。
【0024】
図2(a)に示すように、入力部12は、種々の動画データおよび静止画データを記憶する画像DB30と、ユーザI/F24を介して与えられたユーザの指示にしたがって、画像DB30からある所定の静止画データを取り出す入力データ処理部32と、アナログ/ディジタル処理部33とを有している。たとえば、ユーザは、動画データに基づく動画を再生させ、或いは、静止画データに基づく静止画を順次再生する。次いで、ユーザは動画中の所望のフレームの画像や、順次再生された静止画中の所望の画像を選択する。この選択は、ユーザI/F24を介して入力データ処理部32に与えられる。入力データ処理部32は、この選択に応答して、画像DB30から選択された画像に対応する静止画の情報を取得すればよい。このようにして取得された画像情報は、アナログ/ディジタル信号処理部33にてA/D変換され、ディジタルの画像データが、編集部14および編集制御部16に伝達される。
【0025】
図3は、編集部14および編集制御部16にて実行される処理を示すフローチャートである。入力部12(入力データ処理部22)からの画像データ(静止画データ)を受理すると、ユーザI/F24を介して与えられた、ユーザからの情報にしたがって、静止画中、動作させるべきオブジェクトを選択するとともに(ステップ302)、当該オブジェクトの動作を特定する(ステップ303)。
【0026】
本実施の形態においては、人やいくつかの動物の種々の動作をパターン化して、動作パターンとしてモーションDB18に記憶されている。また、パターン化されていないオブジェクトについては、モデリング処理部20により、その動作データが作り出される。編集制御部16において、指定されたオブジェクトの動作が、モーションDB18中に存在すると判断された場合(ステップ304でイエス(Yes))には、編集制御部16は、モーションDB18から動作パターンを抽出し、これを編集部14に伝達する(ステップ305)。その一方、指定されたオブジェクトの動作が、モーションDB18中に存在しないと判断された場合(ステップ304でノー(No))には、モデリング処理部20が起動して、当該オブジェクトの動作データを生成する(ステップ306)。
【0027】
編集部14は、モーションDB18から取り出された動作データや、モデリング処理部20により生成された動作データと、静止画データとを利用して、動画データを生成する(ステップ307)。このようにして生成された動画データは、出力部22に出力される。
【0028】
本実施の形態においては、複数のユーザが、同時に動画作成システムを利用して、ある静止画を参照して、所望のオブジェクトを指定して、指定されたオブジェクトが、それぞれ動作するような動画を作成することが可能である。図4に示すように、ユーザAとユーザBが、ある静止画を同時に参照し、それぞれがマウスなどの入力装置を操作して、所望のオブジェクトや、その動作を選択することができる。たとえば、ユーザBは、静止画中の人物にある動作(たとえば、歩かせる)をさせようとし、その一方、ユーザAは、静止画中のあるもの(たとえば、木の葉)を動かそうとした(落とそうとした)と考える。この場合、ユーザBの指示(符号401参照)にしたがって、模式的に考えると、編集制御部16は、スイッチ50をモーションDB18の側と接続し(符号403参照)、モーションDB18中の所定の動作パターンを編集部14に渡す。その一方、ユーザAの指示(符号402参照)に対しては、スイッチ50をモデリング処理部20と接続し(符号404参照)、モデリング処理部20に必要なデータや指示を与える。つまり、本実施の形態においては、編集制御部16がスイッチャとして機能し、あるユーザの指示に応答してモーションDB18から動作パターンを取得するように動作し、他のユーザの指示に応答してモデリング処理部20を起動することできる。つまり、本実施の形態においては、複数のユーザが、同一の静止画を参照して、それぞれ、所望のオブジェクトを選択し、これらを動作させたような動画を作成することができる。
【0029】
次に、ユーザによるオブジェクトや動作の指定につき説明を加える。図6(a)に示すように、編集制御部16は、オブジェクトの種別およびその動作に基づき、当該種別のオブジェクトによる動作パターンと、静止画中のオブジェクトとのマッチングを行い、最適なパターンを特定する(ステップ601)。たとえば、モーションDB18に、ある種別のオブジェクトのある動作パターンのために、そのオブジェクトを複数の特徴点(たとえば、オブジェクトの関節など)の座標およびその時間的変化が記憶されているとする。この場合、あるタイミングでの各特徴点の位置と、静止画中のオブジェクトから抽出された各特徴点の位置とに基づき、最も好ましいパターン(たとえば、誤差の最小のもの、或いは、相関が最大のもの)を選択すればよい。
【0030】
次いで、マッチングにより特定された動作パターンに関するデータが、パターンDB18から読み出され、これらデータが編集部14に与えられる(ステップ602)。編集部14は、動作データにしたがって、所定フレーム分のオブジェクトの動作を表す動作データを生成する。たとえば、モーションDB18から与えられたデータが、オブジェクトの特徴点の時間ごとの移動を示すものであれば、当該特徴点に対応する、動作させるべきオブジェクトの点を移動させるとともに、当該点の移動に合致するようにオブジェクトの他の部分の位置が変更するような動作データが生成される。このようにして、図6(b)に示すように、単一の静止画610中の選択されたオブジェクトが移動するような、動作データを有するデータ群(符号611参照)を生成することができる。
【0031】
次に、モデリング処理部20により処理につき説明を加える。モデリング処理部20は、指定されたオブジェクトのデータを含む静止画を最初のフレーム画像として、当該最初のフレーム画像に類似し、かつ、オブジェクトが一部変更されたようなフレーム画像を順次生成する。たとえば、フラクタルモデリングを利用することで、上述したようなフレーム画像を生成することができる。たとえば、木の葉が、動作させるべきオブジェクトであれば、木の葉の向きや形状がわずかずつ変更されたような、一群の動作データを生成することができる。無論、木の葉、花など単一の小物体ではなく、多数の葉や花を含みうる樹木、草木などを動作させるべきオブジェクトとすること、さらには、複数の樹木や草木の群を動作させるべきオブジェクトとすることができる。
【0032】
たとえば、図5(a)の例では、表示装置の画面500の左側の領域501に、入力部12において取得された静止画が表示されている。この静止画においては、人物510、511、動物512、幾枚かの葉(たとえば、符号516参照)を有する樹木515が表示されている。また、画面500の右側には、オブジェクトの種別を選択する領域502が設けられている。ここには、人、犬、猫、車など、ユーザが領域501にて選択したオブジェクトに対応する種別を選択できるようになっている。たとえば、ユーザがマウスを操作して、人物510を選択し、かつ、「人」と表示されているボタン513を選択することにより、オブジェクトおよびその種別が「人」であることを特定することができる。
【0033】
動作させるべきオブジェクトおよびその種別が選択されると、図5(b)に示すように、画面520の領域521においては、選択されたオブジェクト530が、特定の表示形態(たとえば、外郭が太線で表される、外郭が特定の色彩で表されるなど)で表示されるとともに、画面520の右側に、動作を選択するための領域522が設けられる。ユーザはマウスなどを操作して、領域522中の所望の動作が記載されたボタン、たとえば、「ゆっくり歩く」ボタン522を選択する。これにより、オブジェクトがすべき動作を特定することができる。
【0034】
樹木515やその中の葉516を動作すべきオブジェクトとして選択した場合にも、どのオブジェクトの種別や、可能であれば動作を選択できるようにするのが望ましい。図5(a)、(b)を利用して選択されたオブジェクト、その種別および動作にしたがって、モーションDB18から動作データが取得され、或いは、モデリング処理部20により、動作データが生成される。なお、本実施の形態において、「ユーザ」は、動画作成者でも、動画視験者でも良い。
【0035】
このようにして、モーションDB18からの動作データや、モデリング処理部20にて生成された動作データを受理すると、編集部14は、元の画像である静止画データおよび動作データに基づいて、動画データを生成する。図7は、動画データの生成を概略的に示す図である。図7において、入力部12において切り出された静止画像700の画像データ中、あるオブジェクト711については、モデリング処理部20により処理が実行されて一群の動作データ702が生成され、その一方、他のオブジェクト712については、モーションDB18からデータが取得され、それに基づく一群の動作データ701が生成されている。
【0036】
編集部14は、一群の動作データ702および他の一群の動作データ701、並びに、静止画の画像データ700を利用して、画像データ700中の選択されたオブジェクト以外については、画像データ700と同様のデータを含み、かつ、選択されたオブジェクトについては、それぞれその動作データに基づくような画像データ群710(動画データ)を生成する。たとえば、編集部14においては、入力部12から渡された静止画の次のフレーム以降に、特定されたオブジェクトがそれぞれ動作するような動作データを付加するような動画データを生成すればよい。
【0037】
なお、編集部14にて生成される動画データのデータ形式は、フレームごとの複数の静止画のデータの集合体ではなく、静止画の画像データと、特定のオブジェクトの動作データとの集合体となっているのが望ましい。これにより、フレームごとの静止画のデータの集合体として動画データを持つ場合と比較して、動画データ全体のデータ量を、著しく小さくすることが可能となる。しかも、出力部に、静止画の画像データと動作データとを結合させる動作をもたせることで、静止画データの集合体と同質の動画像を得ることができる。データ量が著しく小さいことで、画像処理専用のコンピュータを利用せず、パーソナルコンピュータにおいて、動画データの生成、および、後述する出力部22における画像圧縮や所定のフォーマットへの変換が可能となる。
【0038】
編集部14にて生成された動画データは、出力部22に与えられる。図2(b)に示すように、出力部22は、受理した動画データや、後述するフォーマット変換を施されたデータを記憶するデータバッファ40と、データ圧縮部42と、フォーマット処理部44とを有している。データ圧縮部42は、受理した動画データ(静止画データおよび選択されたオブジェクトの動作データの形式であっても良い)を、たとえば、MPEGなど規格にしたがって、静止部(静止画データの部分)および動作データを別に圧縮し、フォーマット化する。次いで、フォーマット処理部44は、圧縮されたデータに基づき、出力形態、たとえば、モバイル通信、DVD、CD−ROM、TV放送などにしたがって、所定のフォーマット形式のデータを生成する。このようにして、静止画から作り出された動画を、携帯端末、パーソナルコンピュータ、TV受信機など種々の機器にて閲覧することが可能となる。つまり、出力部22からは、再生する機器のディスプレイのサイズや機器の記憶容量、通信に利用するネットワークの容量など、動画を表示する情報処理装置や情報処理装置にいたるまでのデータ伝送経路の状態に基づき、複数の階層的な出力フォーマットが形成され、いずれかの出力フォーマットにより信号(データ)が出力されるようになっている。
【0039】
本実施の形態によれば、選択されたオブジェクトの種別やその動作に基づき、選択されたオブジェクトの動作データを、モーションDB18から動作パターンを取得することにより、或いは、モデリング処理部20における処理により、動作データを取得し、静止画中の選択されたオブジェクトを動作させることができる。
【0040】
また、本実施の形態によれば、編集制御部16においてスイッチャの機能により、あるユーザの指示にしたがってモーションDBをアクセスし、他のユーザの指示にしたがってモデリング処理部20を起動する。たとえば、同一の静止画について、複数のユーザが、それぞれ、所望のオブジェクトを選択し、編集制御部16によるスイッチャの機能を利用して、それぞれのオブジェクトの動作データを作成することができる。これにより、複数のユーザが選択したオブジェクトがそれぞれ動作するような動画を作成することが可能となる。
【0041】
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
たとえば、前記実施の形態においては、モデリング処理部においてフラクタルモデルを利用して、オブジェクトの動作データを生成しているが、これに限定されるものではなく、オブジェクトによって適した他の手法(たとえば、パーティクルシステムなど)を利用しても良いことは言うまでもない。
【0042】
また、前記実施の形態においては、ユーザI/Fを介して、ユーザが入力装置を操作することに応答した種々の指示が与えられ、出力部から所定のフォーマットの画像データが出力される。ユーザの指示は、当該画像編集システムを実現するコンピュータの入力装置から入力されるものに限定されない。たとえば、画像編集システムが、インターネットに接続され、クライアントマシンからの指示、たとえば、静止画、オブジェクトおよび動作の指定がインターネットを介して、画像編集システムに与えられ、動画データが、インターネットを介してクライアントマシンに配信されても良い。また、クライアントマシンは複数であっても良いことは言うまでもない。
【0043】
【発明の効果】
本発明によれば、作業者(観察者)の操作を最小限にして、静止画中の所望のオブジェクトを動作させることができるシステムを提供することが可能となる。また、本発明によれば、マルチユーザの環境下で、同一の静止画中の複数のオブジェクトが選択された場合に、それぞれが動作している動画を生成するシステムを提供することが可能となる。
【図面の簡単な説明】
【図1】図1は、本実施の形態にかかる動画生成システムの概略を示すブロックダイヤグラムである。
【図2】図2は、本実施の形態にかかる入力部および出力部の構成をそれぞれ示すブロックダイヤグラムである。
【図3】図3は、本実施の形態に係る編集部および編集制御部にて実行される処理を示すフローチャートである。
【図4】図4は、本実施の形態にかかるオブジェクトの選択やその動作データの生成を、マルチユーザにて実現することを概略的に示す図である。
【図5】図5は、本実施の形態において、オブジェクトやその種別などを選択するために表示装置の画面上に表示された画像の例を示す図である。
【図6】図6は、本実施の形態にかかる編集処理部における処理例を示すフローチャートおよび作成される動作データを概略的に示す図である。
【図7】図7は、本実施の形態にかかる動画データの生成を概略的に示す図である。
【符号の説明】
12  入力部
14  編集部
16  編集制御部
18  モーションDB
20  モデリング処理部
22  出力部
24  ユーザI/F
30  画像DB
32  入力データ処理部
33  アナログ/ディジタル処理部
40  データバッファ
42  画像圧縮部
44  フォーマット処理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to generation of a moving image, and more particularly, to a technique for generating a fixed moving image from a still image.
[0002]
[Prior art]
With the development of so-called CG (Computer Graphics), it has become possible to create moving images based on still images. For example, based on the still images before and after the change, morphing to create a plurality of frame images showing the process of the change, photographing an object from various directions, joining these, and obtaining an image of the object from any direction That is, a QTVR (QuickTime (registered trademark) Virtual) that can obtain a moving image in which an object is arbitrarily rotated.
Reality) has been put to practical use.
[0003]
In addition, a technique of creating a plurality of frame images by forming a way of movement of a selected object including an original still image for each frame and thereby creating a moving image is also used in movies and the like.
[0004]
[Problems to be solved by the invention]
In morphing and the like, there is a problem in that a plurality of still images before and after the change or in the process of the change are required, and the movement is restricted. That is, there is a problem that the motion object can be operated only within the range of the still image indicating before and after the change.
[0005]
On the other hand, in a large-scale CG used in a movie or the like, a still image is generated for each frame. However, this requires the use of a very high performance image processing system, creates still images for each frame, and requires a large number of still images, thus requiring a medium that requires digital recording and communication. Requires a remarkably large data capacity. In addition, there is a problem that information performance is poor in transmitting and recording adjacent frame data.
[0006]
On the other hand, a wireframe is created at the part to be moved, such as the mouth and eyes of an object (for example, a person or animal) in a still image, and by moving it, the effect is as if the object is talking. Technology has been proposed. However, in this technique, the operator needs to make various inputs to create a wire frame connecting the facial feature points. On the other hand, the movable range is limited to the face and the like.
[0007]
An object of the present invention is to provide a system capable of operating a desired object in a still image while minimizing the operation of an operator (observer). Another object of the present invention is to provide a system for generating a moving image in which each of a plurality of objects in the same still image is selected in a multi-user environment. A further object of the present invention is to provide a system for realizing the reproduction of a moving image without significantly increasing the data amount.
[0008]
[Means for Solving the Problems]
An object of the present invention is to provide, from image data corresponding to a still image, an input unit that extracts a predetermined still image from an image DB to generate moving image data in which an object in the still image operates, A moving image generating method that uses a moving image generating unit that generates a moving image based on the moving image data, and an output unit that converts the generated moving image data into a predetermined output form. Extracting image data corresponding to an image; identifying at least one object to be operated in the still image, a type and an operation of the object in the moving image generating unit; Referring to the motion DB storing the pattern, it is determined whether the type and the motion of the object are present in the motion pattern. Disconnecting, and when there is a motion pattern in the motion DB, reading the motion pattern and generating motion data of the object based on the motion pattern; and there is no motion pattern in the motion DB. A step of generating motion data of the specified object by a modeling process; a step of generating moving image data such that the specified object operates based on the still image data and the motion data; And a step of converting the moving image data according to a selected output mode.
[0009]
According to the present invention, the motion data of the selected object is generated from the motion pattern in the motion DB or by the modeling process, and the motion data is generated by adding the motion data to the still image data. Therefore, when the user inputs a necessary minimum instruction such as designation of an object, it is possible to obtain a moving image in which a desired object is operated. That is, complicated input such as setting of a wire frame can be omitted.
Further, according to the present invention, the motion data corresponding to the motion pattern in the motion DB is generated based on the motion pattern. Thereby, the load for generating the operation data can be reduced.
[0010]
The generated moving image data is preferably formed not as an aggregate of still image data for each frame but as an aggregate of still image data and motion data. As a result, the data amount can be remarkably reduced as compared with the case where moving image data is included as an aggregate of still data, and data generation and data processing by a small-scale personal computer become possible.
[0011]
In a preferred embodiment, the step of determining whether or not the object exists in the motion pattern includes comparing a position of a predetermined feature point in the object with a position of a related feature point in the motion pattern, Determining whether there is a motion pattern suitable for the motion of the object based on the comparison and selecting a suitable motion pattern. According to this embodiment, it is possible to select a more appropriate movement pattern and generate movement data that allows the object to move smoothly.
[0012]
In a preferred embodiment, the step of generating the motion data by the modeling process is configured to generate motion data of the selected object by fractal modeling. Of course, the motion data may be generated using other modeling.
[0013]
In another preferred embodiment, the method further includes a step of receiving, from a user, a designation of an object in a still image, a designation of a type of the object, and information indicating an operation of the object via a user interface. , Based on the received information, it is configured to determine whether or not it exists in the operation pattern.
[0014]
In a more preferred embodiment, from a plurality of users, the designation of an object in a single still image, the designation of the type of the object, and receiving information indicating the operation of the object, for each information, Determining whether or not the motion data is present in the motion pattern, generating motion data based on the motion pattern in the motion DB, and performing one of generation of motion data by a modeling process, It is configured to generate moving image data in which each object operates using each operation data of the designated object.
[0015]
According to the above embodiment, even in a multi-user environment, motion data of an object is generated in response to each designation of an object or the like by a user, and a moving image in which each object operates can be created. It becomes. It goes without saying that a single user can designate a plurality of objects and create a moving image in which each of the objects operates based on the designated objects.
In another preferred embodiment, the step of generating the moving image data includes a step of adding operation data such that each of the objects specified after the next frame of the still image operates.
[0016]
In still another preferred embodiment, the step of converting the moving image data in accordance with the selected output form is based on a state of an information processing device that displays a moving image and / or a data transmission path to the information processing device, Generating and outputting data in a predetermined format selected from a plurality of hierarchical output formats.
[0017]
Another object of the present invention is to provide an input unit for extracting a predetermined still image from an image DB in order to generate moving image data in which an object in the still image operates from image data corresponding to the still image, A computer-readable program for generating a moving image by using a moving image generating unit that generates a moving image based on an image and an output unit that converts the generated moving image data into a predetermined output form; Extracting, from the image DB, image data corresponding to a specific still image in the input unit; and at least one object to be operated in the still image, a type and an operation of the object in the still image in the moving image generating unit. And referring to a motion DB that stores a motion pattern of an object of a specific type, Determining whether the type and the motion of the object are present in the motion pattern; and, when the motion pattern is present in the motion DB, reading the motion pattern and, based on the read motion pattern, the motion of the object. A step of generating data; a step of generating motion data of the specified object by a modeling process when no motion pattern exists in the motion DB; and a step of generating the motion data based on the still image data and the motion data. A program for causing the computer to execute a step of generating moving image data such that the object operates and a step of converting the moving image data in the output unit according to a selected output form. Achieved.
[0018]
In a preferred embodiment, in the step of determining whether or not the object is present in the motion pattern, a position of a predetermined feature point in the object is compared with a position of a related feature point in the motion pattern, Based on the comparison, the computer is caused to determine whether there is a motion pattern suitable for the motion of the object and to select a suitable motion pattern.
Further, in a preferred embodiment, in the step of generating the operation data by the modeling process, the computer is caused to execute a step of generating operation data by operating the selected object by fractal modeling.
[0019]
In a more preferred embodiment, the step of, via a user interface, specifying the object in the still image from the user, specifying the type of the object, and receiving information indicating the operation of the object, The program is executed by the computer, and the computer is operated so as to determine whether or not the operation pattern exists in the operation pattern based on the received information.
[0020]
Receiving, from a plurality of users, designation of an object in a single still image, designation of the type of the object, and information indicating the operation of the object; and for each of the information, Judging whether or not the motion data exists, generating the motion data based on the motion pattern in the motion DB, and executing one of the generation of motion data by modeling processing, the computer executes the It is desirable to operate the computer so as to generate moving image data in which each object operates using each operation data of the designated object.
[0021]
In another preferred embodiment, in the step of generating the moving image data, the computer is caused to execute a step of adding operation data such that each of the objects specified after the next frame of the still image operates.
Further, in the step of converting the moving image data according to a selected output mode, a plurality of hierarchical output formats are displayed based on an information processing device displaying a moving image and / or a state of a data transmission path to the information processing device. And a step of generating and outputting data in a predetermined format selected from the above.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram schematically showing a moving image generation system according to the present embodiment. The moving image generation system 10 according to the present embodiment generates a moving image by giving an operation to a predetermined object based on an arbitrary still image such as a photograph, a painting, a line drawing, or a character by a process described later. Here, the object includes a person, an animal (eg, a dog, a cat, etc.), a plant (eg, a flower, a leaf, etc.) and an inanimate object such as a car in the image. In addition, objects that do not seem to move in the real world (for example, trees, mountains, and buildings) are also included in the objects in the present embodiment.
[0023]
As shown in FIG. 1, a moving image generating system 10 according to the present embodiment generates an input unit 12 for extracting still image data to be processed from moving images and various image data, and creates moving image data from the still image data. An editing unit 14 that controls the editing unit 14 and the like according to input data and the like for creating moving image data, a motion DB 18 that stores a data group indicating the movement of various objects, A modeling processing unit 20 for giving a motion to a predetermined object and generating predetermined motion data; an output unit 22 for generating and outputting data in a predetermined format according to moving image data provided from the editing unit 14; User interface (e.g., the edit control unit 16) after receiving an input from the / F) and a 24. Here, the editing unit 14, the editing control unit 16, the motion DB 18, and the modeling processing unit 20 form a moving image generation unit.
[0024]
As shown in FIG. 2A, the input unit 12 is provided from the image DB 30 storing various moving image data and still image data, and from the image DB 30 according to a user instruction given via the user I / F 24. An input data processing section 32 for extracting predetermined still image data and an analog / digital processing section 33 are provided. For example, the user reproduces a moving image based on moving image data, or sequentially reproduces still images based on still image data. Next, the user selects a desired frame image in the moving image or a desired image in the sequentially reproduced still images. This selection is given to the input data processing unit 32 via the user I / F 24. The input data processing unit 32 may acquire the information of the still image corresponding to the selected image from the image DB 30 in response to the selection. The image information thus obtained is A / D-converted by the analog / digital signal processing unit 33, and digital image data is transmitted to the editing unit 14 and the editing control unit 16.
[0025]
FIG. 3 is a flowchart illustrating processing executed by the editing unit 14 and the editing control unit 16. When image data (still image data) is received from the input unit 12 (input data processing unit 22), an object to be operated in a still image is determined according to information from the user given via the user I / F 24. At the same time as the selection (step 302), the operation of the object is specified (step 303).
[0026]
In the present embodiment, various motions of a person or some animals are patterned and stored as motion patterns in the motion DB 18. For an object that has not been patterned, the modeling processor 20 creates its operation data. When the edit control unit 16 determines that the motion of the designated object exists in the motion DB 18 (Yes in step 304), the edit control unit 16 extracts a motion pattern from the motion DB 18 This is transmitted to the editing unit 14 (step 305). On the other hand, when it is determined that the motion of the specified object does not exist in the motion DB 18 (No in step 304), the modeling processing unit 20 is activated to generate motion data of the object. (Step 306).
[0027]
The editing unit 14 generates moving image data using the motion data extracted from the motion DB 18, the motion data generated by the modeling processing unit 20, and the still image data (step 307). The moving image data generated in this manner is output to the output unit 22.
[0028]
In the present embodiment, a plurality of users simultaneously use the moving image creation system, refer to a certain still image, specify a desired object, and create a moving image in which the specified object operates. It is possible to create. As shown in FIG. 4, the user A and the user B can simultaneously refer to a certain still image and operate an input device such as a mouse to select a desired object and its operation. For example, user B tries to cause a person in a still image to perform a certain action (for example, walk), while user A tries to move something in a still image (for example, a leaf) (dropping). I thought). In this case, when schematically considered according to the instruction of the user B (see reference numeral 401), the editing control unit 16 connects the switch 50 to the motion DB 18 side (see reference numeral 403), and performs a predetermined operation in the motion DB 18. The pattern is passed to the editing unit 14. On the other hand, in response to an instruction from the user A (see reference numeral 402), the switch 50 is connected to the modeling processing unit 20 (see reference numeral 404), and necessary data and instructions are given to the modeling processing unit 20. That is, in the present embodiment, the editing control unit 16 functions as a switcher, operates to acquire an operation pattern from the motion DB 18 in response to an instruction of a certain user, and performs modeling in response to an instruction of another user. The processing unit 20 can be started. That is, in the present embodiment, a plurality of users can create a moving image by selecting desired objects and operating them by referring to the same still image.
[0029]
Next, a description will be given of the designation of an object or an operation by the user. As shown in FIG. 6A, based on the type of the object and its operation, the edit control unit 16 matches the motion pattern of the object of the type with the object in the still image, and specifies the optimal pattern. (Step 601). For example, it is assumed that the motion DB 18 stores, for a certain motion pattern of an object of a certain type, the coordinates of a plurality of feature points (for example, joints of the object) and the temporal change of the object. In this case, based on the position of each feature point at a certain timing and the position of each feature point extracted from the object in the still image, the most preferable pattern (for example, the one with the smallest error or the one with the largest correlation) ) Can be selected.
[0030]
Next, data relating to the operation pattern specified by the matching is read out from the pattern DB 18, and these data are provided to the editing unit 14 (Step 602). The editing unit 14 generates motion data representing the motion of the object for a predetermined frame according to the motion data. For example, if the data provided from the motion DB 18 indicates the movement of the feature point of the object over time, the point of the object to be moved corresponding to the feature point is moved, and the movement of the point is performed. Motion data is generated that changes the position of other parts of the object to match. In this way, as shown in FIG. 6B, a data group (see reference numeral 611) having motion data such that a selected object in a single still image 610 moves can be generated. .
[0031]
Next, the processing will be described by the modeling processing unit 20. The modeling processing unit 20 uses a still image including data of the designated object as a first frame image, and sequentially generates frame images similar to the first frame image and in which the object is partially changed. For example, a frame image as described above can be generated by using fractal modeling. For example, if a leaf is an object to be moved, a group of movement data can be generated in which the direction and shape of the leaf are slightly changed. Of course, instead of a single small object such as a leaf or flower, an object that should operate a tree or plant that can contain many leaves or flowers, and an object that should operate a group of multiple trees or plants It can be.
[0032]
For example, in the example of FIG. 5A, a still image acquired by the input unit 12 is displayed in an area 501 on the left side of the screen 500 of the display device. In this still image, a person 510, 511, an animal 512, and a tree 515 having some leaves (for example, reference numeral 516) are displayed. On the right side of the screen 500, an area 502 for selecting the type of the object is provided. Here, the type corresponding to the object selected by the user in the area 501, such as a person, a dog, a cat, and a car, can be selected. For example, when the user operates the mouse to select the person 510 and the button 513 displayed as “person”, the object and its type can be specified as “person”. it can.
[0033]
When the object to be operated and its type are selected, as shown in FIG. 5B, in the area 521 of the screen 520, the selected object 530 is displayed in a specific display form (for example, the outline is indicated by a bold line). In addition, an area 522 for selecting an operation is provided on the right side of the screen 520 while the outline is displayed in a specific color. The user operates a mouse or the like to select a button in the area 522 in which a desired operation is described, for example, a “slow walking” button 522. Thereby, the action to be performed by the object can be specified.
[0034]
Even when the tree 515 and the leaves 516 therein are selected as objects to be operated, it is desirable that the type of the object and, if possible, the operation can be selected. In accordance with the object selected using FIGS. 5A and 5B, the type and the motion, motion data is obtained from the motion DB 18 or motion data is generated by the modeling processing unit 20. In the present embodiment, the “user” may be a movie creator or a movie viewer.
[0035]
As described above, when the motion data from the motion DB 18 and the motion data generated by the modeling processing unit 20 are received, the editing unit 14 generates the moving image data based on the still image data and the motion data as the original images. Generate FIG. 7 is a diagram schematically showing generation of moving image data. 7, a certain object 711 in the image data of the still image 700 cut out by the input unit 12 is processed by the modeling processing unit 20 to generate a group of motion data 702, and on the other hand, another object 711 is generated. As for 712, data is obtained from the motion DB 18 and a group of motion data 701 is generated based on the data.
[0036]
The editing unit 14 uses the group of operation data 702 and the other group of operation data 701 and the image data 700 of the still image, and uses the same data as the image data 700 except for the selected object in the image data 700. For each of the selected objects, the image data group 710 (moving image data) is generated based on the operation data. For example, the editing unit 14 may generate moving image data to which motion data for causing each of the specified objects to operate is added after the frame following the still image passed from the input unit 12.
[0037]
The data format of the moving image data generated by the editing unit 14 is not an aggregate of a plurality of still image data for each frame, but an aggregate of still image data and motion data of a specific object. It is desirable to have. This makes it possible to significantly reduce the data amount of the entire moving image data as compared with the case where moving image data is included as an aggregate of still image data for each frame. In addition, by providing the output unit with an operation of combining the image data of the still image and the operation data, a moving image having the same quality as the aggregate of the still image data can be obtained. Since the data amount is extremely small, a personal computer can generate moving image data and perform image compression and conversion into a predetermined format in the output unit 22 described later without using a computer dedicated to image processing.
[0038]
The moving image data generated by the editing unit 14 is provided to the output unit 22. As shown in FIG. 2B, the output unit 22 includes a data buffer 40 that stores the received moving image data and data that has been subjected to format conversion described later, a data compression unit 42, and a format processing unit 44. Have. The data compression unit 42 converts the received moving image data (still image data and operation data of the selected object may be in the form of still image data and still image data) in accordance with a standard such as MPEG. Compress and format the motion data separately. Next, the format processing unit 44 generates data in a predetermined format according to an output form, for example, mobile communication, DVD, CD-ROM, TV broadcast, or the like, based on the compressed data. In this way, a moving image created from a still image can be viewed on various devices such as a mobile terminal, a personal computer, and a TV receiver. That is, the state of the data transmission path from the output unit 22 to the information processing device that displays moving images and the information processing device, such as the size of the display of the device to be played back, the storage capacity of the device, and the capacity of the network used for communication. , A plurality of hierarchical output formats are formed, and a signal (data) is output in one of the output formats.
[0039]
According to the present embodiment, based on the type of the selected object and its motion, the motion data of the selected object is obtained by acquiring a motion pattern from the motion DB 18 or by the processing in the modeling processing unit 20. Motion data can be acquired and the selected object in the still image can be moved.
[0040]
Further, according to the present embodiment, the editing control unit 16 accesses the motion DB by a switcher function according to a user's instruction, and activates the modeling processing unit 20 according to another user's instruction. For example, for the same still image, a plurality of users can each select a desired object and use the switcher function of the edit control unit 16 to create motion data of each object. Thus, it is possible to create a moving image in which objects selected by a plurality of users operate.
[0041]
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, which are also included in the scope of the present invention. Needless to say,
For example, in the above-described embodiment, the modeling processing unit uses the fractal model to generate the motion data of the object. However, the present invention is not limited to this, and other methods suitable for the object (for example, Needless to say, a particle system may be used.
[0042]
In the above-described embodiment, various instructions in response to the user operating the input device are given via the user I / F, and the output unit outputs image data in a predetermined format. The user's instructions are not limited to those input from an input device of a computer that implements the image editing system. For example, an image editing system is connected to the Internet, and instructions from a client machine, for example, designation of still images, objects, and actions are provided to the image editing system via the Internet, and moving image data is transmitted to the client via the Internet. It may be delivered to the machine. Needless to say, there may be a plurality of client machines.
[0043]
【The invention's effect】
According to the present invention, it is possible to provide a system capable of operating a desired object in a still image while minimizing the operation of an operator (observer). Further, according to the present invention, it is possible to provide a system that generates a moving image in which each of a plurality of objects in the same still image is operated when a plurality of objects in the same still image are selected in a multi-user environment. .
[Brief description of the drawings]
FIG. 1 is a block diagram schematically illustrating a moving image generation system according to an embodiment;
FIG. 2 is a block diagram illustrating a configuration of an input unit and an output unit according to the embodiment;
FIG. 3 is a flowchart illustrating processing executed by an editing unit and an editing control unit according to the present embodiment.
FIG. 4 is a diagram schematically illustrating that selection of an object and generation of its operation data according to the present embodiment are realized by a multi-user;
FIG. 5 is a diagram showing an example of an image displayed on a screen of a display device for selecting an object, its type, and the like in the present embodiment.
FIG. 6 is a flowchart schematically illustrating a processing example in an editing processing unit according to the embodiment and a diagram schematically illustrating generated operation data;
FIG. 7 is a diagram schematically illustrating generation of moving image data according to the present embodiment;
[Explanation of symbols]
12 Input section
14 Editorial Department
16 Edit control unit
18 Motion DB
20 Modeling processing unit
22 Output section
24 User I / F
30 Image DB
32 input data processing unit
33 Analog / Digital Processing Unit
40 data buffer
42 Image compression unit
44 Format processing unit

Claims (14)

静止画に対応する画像データから、当該静止画中のオブジェクトが動作する動画データを生成するため、画像DBから所定の静止画を取り出す入力部と、取り出された静止画に基づく動画像を生成する動画像生成部と、生成された動画データを所定の出力形態に変換する出力部とを利用した動画生成方法であって、
前記入力部において、画像DBから、特定の静止画に対応する画像データを抽出するステップと、
前記動画像生成部において、前記静止画中の動作させる少なくとも1つのオブジェクト、当該オブジェクトの種別および動作を特定するステップと、
特定の種別のオブジェクトの動作パターンを記憶したモーションDBを参照して、前記オブジェクトの種別および動作が、前記動作パターン中に存在するか否かを判断するステップと、
前記モーションDB中の動作パターンが存在する場合に、当該動作パターンを読み出して、これに基づき、前記オブジェクトの動作データを生成するステップと、
前記モーションDB中に動作パターンが存在しない場合に、モデリング処理により、特定されたオブジェクトの動作データを生成するステップと、
前記静止画データおよび動作データに基づき、特定されたオブジェクトが動作するような動画データを生成するステップと、
前記出力部において、前記動画データを、選択された出力形態にしたがって変換するステップとを備えたことを特徴とする動画生成方法。
An input unit for extracting a predetermined still image from the image DB and a moving image based on the extracted still image to generate moving image data in which an object in the still image operates from image data corresponding to the still image. A moving image generation method using a moving image generation unit and an output unit that converts the generated moving image data into a predetermined output form,
In the input unit, extracting image data corresponding to a specific still image from an image DB;
In the moving image generation unit, identifying at least one object to be operated in the still image, a type and an operation of the object;
Referring to a motion DB that stores a motion pattern of an object of a specific type, determining whether the type and motion of the object are present in the motion pattern;
Reading out the motion pattern when there is a motion pattern in the motion DB and generating motion data of the object based on the motion pattern;
Generating a motion data of the specified object by a modeling process when no motion pattern exists in the motion DB;
Based on the still image data and the operation data, generating moving image data such that the specified object operates,
A step of converting the moving image data in the output unit in accordance with a selected output mode.
前記動作パターン中に存在するか否かを判断するステップが、前記オブジェクト中の所定の特徴点の位置と、前記動作パターン中の関連する特徴点の位置とを比較し、当該比較に基づき、前記オブジェクトの動作に適した動作パターンの有無を判断するとともに、適した動作パターンを選択するステップを有することを特徴とする請求項1に記載の方法。The step of determining whether or not there is in the motion pattern, comparing the position of a predetermined feature point in the object with the position of a related feature point in the motion pattern, based on the comparison, The method according to claim 1, further comprising determining whether there is a motion pattern suitable for the motion of the object and selecting a suitable motion pattern. 前記モデリング処理による動作データを生成するステップが、フラクタルモデリングにより、選択されたオブジェクトを動作させた動作データを生成するように構成されたことを特徴とする請求項1または2に記載の方法。The method according to claim 1, wherein the step of generating the motion data by the modeling process is configured to generate, by fractal modeling, motion data for operating the selected object. さらに、ユーザインタフェースを介して、ユーザからの、静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップを備え、
前記受理した情報に基づき、前記動作パターン中に存在するか否かを判断するように構成されたことを特徴とする請求項1ないし3の何れか一項に記載の方法。
Further, via a user interface, from the user, the designation of the object in the still image, the designation of the type of the object, and receiving information indicating the operation of the object,
The method according to any one of claims 1 to 3, wherein the method is configured to determine whether or not the motion pattern is present based on the received information.
複数のユーザから、単一の静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップと、
前記情報ごとに、前記動作パターン中に存在するか否かを判断して、前記モーションDB中の動作パターンに基づく動作データの生成、および、モデリング処理による動作データの生成のいずれかを実行するステップとを備え、
前記指定されたオブジェクトのそれぞれの動作データを用いて、それぞれのオブジェクトが動作するような動画データを生成するように構成されたことを特徴とする請求項4に記載の方法。
Receiving, from a plurality of users, designation of an object in a single still image, designation of the type of the object, and information indicating an operation of the object;
A step of, for each of the information, determining whether or not the information is present in the motion pattern, and performing one of generation of motion data based on the motion pattern in the motion DB and generation of motion data by modeling processing With
The method according to claim 4, wherein the motion data of each of the designated objects is used to generate moving image data such that each of the objects moves.
前記動画データを生成するステップが、
静止画の次のフレーム以降に特定されたオブジェクトがそれぞれ動作するような動作データを付加するステップを有することを特徴とする請求項1ないし5の何れか一項に記載の方法。
Generating the moving image data,
The method according to any one of claims 1 to 5, further comprising a step of adding motion data such that each of the objects specified after the next frame of the still image moves.
前記動画データを、選択された出力形態にしたがって変換するステップが、
動画を表示する情報処理装置および/または当該情報処理装置までのデータ伝送経路の状態に基づき、複数の階層的な出力フォーマットから選択された所定のフォーマットによるデータを生成し、出力するステップを有することを特徴とする請求項1ないし6の何れか一項に記載の方法。
Converting the moving image data according to the selected output form,
A step of generating and outputting data in a predetermined format selected from a plurality of hierarchical output formats based on a state of an information processing apparatus for displaying a moving image and / or a data transmission path to the information processing apparatus. The method according to any one of claims 1 to 6, characterized in that:
静止画に対応する画像データから、当該静止画中のオブジェクトが動作する動画データを生成するため、画像DBから所定の静止画を取り出す入力部と、取り出された静止画に基づく動画像を生成する動画像生成部と、生成された動画データを所定の出力形態に変換する出力部とを利用して動画を生成するために、コンピュータにより読み取り可能なプログラムであって、
前記入力部において、画像DBから、特定の静止画に対応する画像データを抽出するステップと、
前記動画像生成部において、前記静止画中の動作させる少なくとも1つのオブジェクト、当該オブジェクトの種別および動作を特定するステップと、
特定の種別のオブジェクトの動作パターンを記憶したモーションDBを参照して、前記オブジェクトの種別および動作が、前記動作パターン中に存在するか否かを判断するステップと、
前記モーションDB中の動作パターンが存在する場合に、当該動作パターンを読み出して、これに基づき、前記オブジェクトの動作データを生成するステップと、
前記モーションDB中に動作パターンが存在しない場合に、モデリング処理により、特定されたオブジェクトの動作データを生成するステップと、
前記静止画データおよび動作データに基づき、特定されたオブジェクトが動作するような動画データを生成するステップと、
前記出力部において、前記動画データを、選択された出力形態にしたがって変換するステップとを、前記コンピュータに実行させることを特徴とするプログラム。
An input unit for extracting a predetermined still image from the image DB and a moving image based on the extracted still image to generate moving image data in which an object in the still image operates from image data corresponding to the still image. A moving image generation unit and a computer-readable program to generate a moving image using the output unit that converts the generated moving image data into a predetermined output form,
In the input unit, extracting image data corresponding to a specific still image from an image DB;
In the moving image generation unit, identifying at least one object to be operated in the still image, a type and an operation of the object;
Referring to a motion DB that stores a motion pattern of an object of a specific type, determining whether the type and motion of the object are present in the motion pattern;
Reading out the motion pattern when there is a motion pattern in the motion DB and generating motion data of the object based on the motion pattern;
Generating a motion data of the specified object by a modeling process when no motion pattern exists in the motion DB;
Based on the still image data and the operation data, generating moving image data such that the specified object operates,
Converting the moving image data according to a selected output form in the output unit.
前記動作パターン中に存在するか否かを判断するステップにおいて、
前記オブジェクト中の所定の特徴点の位置と、前記動作パターン中の関連する特徴点の位置とを比較し、当該比較に基づき、前記オブジェクトの動作に適した動作パターンの有無を判断するとともに、適した動作パターンを選択するステップを、前記コンピュータに実行させることを特徴とする請求項8に記載のプログラム。
In the step of determining whether there is in the operation pattern,
The position of a predetermined feature point in the object is compared with the position of a related feature point in the motion pattern, and based on the comparison, the presence or absence of a motion pattern suitable for the motion of the object is determined. The program according to claim 8, wherein the program causes the computer to execute the step of selecting the operation pattern.
前記モデリング処理による動作データを生成するステップにおいて、フラクタルモデリングにより、選択されたオブジェクトを動作させた動作データを生成するステップを、前記コンピュータに実行させることを特徴とする請求項8または9に記載のプログラム。10. The computer according to claim 8, wherein in the step of generating the operation data by the modeling process, the computer is caused to execute a step of generating operation data by operating the selected object by fractal modeling. program. さらに、ユーザインタフェースを介して、ユーザからの、静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップを、前記コンピュータに実行させ、
前記受理した情報に基づき、前記動作パターン中に存在するか否かを判断するように、前記コンピュータを動作させることを特徴とする請求項8ないし10の何れか一項に記載のプログラム。
Further, through the user interface, from the user, the designation of the object in the still image, the designation of the type of the object, and the step of receiving information indicating the operation of the object, the computer, the computer,
The program according to any one of claims 8 to 10, wherein the computer is operated to determine whether or not the operation pattern exists in the operation pattern based on the received information.
複数のユーザから、単一の静止画中のオブジェクトの指定、当該オブジェクトの種別の指定、および、当該オブジェクトの動作を示す情報を受理するステップと、
前記情報ごとに、前記動作パターン中に存在するか否かを判断して、前記モーションDB中の動作パターンに基づく動作データの生成、および、モデリング処理による動作データの生成のいずれかを実行するステップとを、前記コンピュータに実行させ、
前記指定されたオブジェクトのそれぞれの動作データを用いて、それぞれのオブジェクトが動作するような動画データを生成するように、前記コンピュータを動作させることを特徴とする請求項11に記載のプログラム。
Receiving, from a plurality of users, designation of an object in a single still image, designation of the type of the object, and information indicating an operation of the object;
A step of, for each of the information, determining whether or not the information is present in the motion pattern, and performing one of generation of motion data based on the motion pattern in the motion DB and generation of motion data by modeling processing And causing the computer to execute
12. The program according to claim 11, wherein the computer is operated so as to generate moving image data such that each object operates using each operation data of the specified object.
前記動画データを生成するステップにおいて、
静止画の次のフレーム以降に特定されたオブジェクトがそれぞれ動作するような動作データを付加するステップを、前記コンピュータに実行させることを特徴とする請求項8ないし12の何れか一項に記載のプログラム。
In the step of generating the moving image data,
The program according to any one of claims 8 to 12, wherein the program causes the computer to execute a step of adding operation data such that each of the objects specified after the next frame of the still image operates. .
前記動画データを、選択された出力形態にしたがって変換するステップにおいて、
動画を表示する情報処理装置および/または当該情報処理装置までのデータ伝送経路の状態に基づき、複数の階層的な出力フォーマットから選択された所定のフォーマットによるデータを生成し、出力するステップを、前記コンピュータに実行させることを特徴とする請求項8ないし13の何れか一項に記載のプログラム。
In the step of converting the moving image data according to the selected output mode,
The step of generating and outputting data in a predetermined format selected from a plurality of hierarchical output formats, based on a state of an information processing apparatus for displaying a moving image and / or a data transmission path to the information processing apparatus; 14. The program according to claim 8, wherein the program is executed by a computer.
JP2002247123A 2002-08-27 2002-08-27 Moving image generating method and moving image generating program Pending JP2004086592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002247123A JP2004086592A (en) 2002-08-27 2002-08-27 Moving image generating method and moving image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002247123A JP2004086592A (en) 2002-08-27 2002-08-27 Moving image generating method and moving image generating program

Publications (1)

Publication Number Publication Date
JP2004086592A true JP2004086592A (en) 2004-03-18

Family

ID=32054849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002247123A Pending JP2004086592A (en) 2002-08-27 2002-08-27 Moving image generating method and moving image generating program

Country Status (1)

Country Link
JP (1) JP2004086592A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243411A (en) * 2006-03-07 2007-09-20 Fujifilm Corp Image processing apparatus, method, and program
KR102231391B1 (en) * 2019-12-23 2021-03-23 연세대학교 산학협력단 Method and Apparatus for Generating Video Based on Keypoints
CN116403140A (en) * 2023-03-30 2023-07-07 武汉智凯科技有限公司 Method and device for rhythmic beat recognition of deformable objects in video stream

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243411A (en) * 2006-03-07 2007-09-20 Fujifilm Corp Image processing apparatus, method, and program
KR102231391B1 (en) * 2019-12-23 2021-03-23 연세대학교 산학협력단 Method and Apparatus for Generating Video Based on Keypoints
CN116403140A (en) * 2023-03-30 2023-07-07 武汉智凯科技有限公司 Method and device for rhythmic beat recognition of deformable objects in video stream

Similar Documents

Publication Publication Date Title
US12293450B2 (en) 3D conversations in an artificial reality environment
US9626788B2 (en) Systems and methods for creating animations using human faces
CN110557625A (en) live virtual image broadcasting method, terminal, computer equipment and storage medium
US11354774B2 (en) Facial model mapping with a neural network trained on varying levels of detail of facial scans
US20040135788A1 (en) Image processing system
US20240428543A1 (en) Generating 2D Data Representation Of 3D Objects In A Virtual Environment
JP2004015288A (en) Screen saver creation system and method
CN114741541B (en) Method and device for interactive control of AI digital person to PPT based on templated editing
CN115331265A (en) Training method of posture detection model and driving method and device of digital person
KR20210081082A (en) Server, method and user device for providing avatar contents based on motion data of object
KR20160134883A (en) Digital actor managing method for image contents
US7002584B2 (en) Video information producing device
WO2023282049A1 (en) Information processing device, information processing method, information processing system, computer program, and recording medium
CN116684663A (en) Video generation method and device
CN117097919B (en) Virtual character rendering method, device, equipment, storage medium and program product
JP6275759B2 (en) Three-dimensional content generation method, program, and client device
KR20180039321A (en) Method and program for producing reactive video and sub-file to make reactive video
JP2004086592A (en) Moving image generating method and moving image generating program
CN108320331A (en) A kind of method and apparatus for the augmented reality video information generating user's scene
KR100370869B1 (en) The method of a three dimensional virtual operating simulation
WO2023236656A1 (en) Method and apparatus for rendering interactive picture, and device, storage medium and program product
KR101560354B1 (en) Complex editing system for creating 3-Dimensional character, and complex editing method using the same
CN118870042B (en) Live video generation method and device, electronic equipment and storage medium
US11450054B2 (en) Method for operating a character rig in an image-generation system using constraints on reference nodes
KR102642583B1 (en) Apparatus and method for composing image and broadcasting system having the same