JP2013118471A - 映像処理装置およびその制御方法 - Google Patents
映像処理装置およびその制御方法 Download PDFInfo
- Publication number
- JP2013118471A JP2013118471A JP2011264482A JP2011264482A JP2013118471A JP 2013118471 A JP2013118471 A JP 2013118471A JP 2011264482 A JP2011264482 A JP 2011264482A JP 2011264482 A JP2011264482 A JP 2011264482A JP 2013118471 A JP2013118471 A JP 2013118471A
- Authority
- JP
- Japan
- Prior art keywords
- video
- correction
- correction target
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】 手軽にカメラの動きを一致させた映像を得ることを可能となる映像処理装置を提供することを目的とする。
【解決手段】 補正処理の基準となる基準映像と、該補正処理を施す補正対象映像の映像撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出し(S510)、算出結果に応じ、前記基準映像と前記補正対象映像の映像撮影時のカメラ位置が一致するかを判定し(S511)、判定の結果、一致しないと判定された補正対象映像を補正する補正する(S517)。
【選択図】 図5
【解決手段】 補正処理の基準となる基準映像と、該補正処理を施す補正対象映像の映像撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出し(S510)、算出結果に応じ、前記基準映像と前記補正対象映像の映像撮影時のカメラ位置が一致するかを判定し(S511)、判定の結果、一致しないと判定された補正対象映像を補正する補正する(S517)。
【選択図】 図5
Description
本発明は、映像を処理する映像処理装置及びその制御方法に関する。
従来から複数の映像(動画像)を合成することは、映像編集において良く行われている。例えばブルーバックで撮影した映像から前景をクロマキーで切出した後、異なる実写映像やCG映像に合成をするなどが行われている。合成後の映像を自然なものとするためには、合成対象となる各映像とそれに対応するカメラとの位置関係が、常時一致していることが必要である。例えば、合成される映像Aと映像Bについて言えば、映像Aとそれを撮影したカメラとの位置関係と、映像Bとそれを撮影したカメラBとの位置関係が、概ね一致していることが望まれる。以上により、映像Aと映像Bの動き方が自然なものの(一致しているもの)ように見える。
このため、上記位置関係が一致するように、カメラを機械的に制御することが有効である。この方法として、例えば、特許文献1では、2台のカメラを1つのコントローラで同時に制御することにより、同じカメラの動きをさせて撮影することが行われている。
また、実写映像撮影の際にカメラの動き情報を取得した後、カメラの動き情報を基に同じカメラの動きをした映像となるコンピュータグラフィックス(CG)映像を生成することは、一般的に良く行われている。
特許文献2ではカメラの動きの検出には、既知形状物体の特徴点の映像内位置からカメラの動きを推定している。
しかしながら特許文献1の場合、カメラ以外に別途、制御用の高価な機材が必要となり、コストや手間がかかってしまう。
また特許文献2の場合、実写映像を撮影する際のカメラの動き情報に基づいてCG映像を生成し、実写映像と合成しているので、実写映像と実写映像の合成は行うことはできない。
上記課題を鑑みて、本発明は、カメラの動きが一致した映像を手軽に得ることを目的としている。
また特許文献2の場合、実写映像を撮影する際のカメラの動き情報に基づいてCG映像を生成し、実写映像と合成しているので、実写映像と実写映像の合成は行うことはできない。
上記課題を鑑みて、本発明は、カメラの動きが一致した映像を手軽に得ることを目的としている。
上記の目的を達成するための本発明の一態様による映像処理装置は以下の構成を備える。すなわち、映像処理装置において、補正処理の基準となる基準映像と、該補正処理を施す補正対象映像の映像撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出する算出手段と、前記算出手段による算出結果に応じ、前記基準映像と前記補正対象映像の映像撮影時のカメラ位置が一致するかを判定する判定手段と、前記判定手段による判定の結果、一致しないと判定された補正対象映像を補正する補正手段とを有することを特徴とする映像処理装置を備えることを特徴とする。
本発明によれば、手軽にカメラの動きが一致した映像を得ることができる。
[実施形態1]
以下に、図に基づいて実施形態1の説明を行う。図1は、本実施形態を実現する映像処理装置のハードウェアの概略を示したハードウェア構成図である。
以下に、図に基づいて実施形態1の説明を行う。図1は、本実施形態を実現する映像処理装置のハードウェアの概略を示したハードウェア構成図である。
撮像部101は、ズームレンズ、フォーカスレンズ,ぶれ補正レンズ,絞り,シャッター,光学ローパスフィルタ,iRカットフィルタ,カラーフィルタ,及びCMOSやCCDなどのセンサなどから構成され、被写体の光量を検知する。
A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、上記デジタル値にデモザイキング処理,ホワイトバランス処理,ガンマ処理などを行い、デジタル画像を生成する。D/A変換部104は、上記デジタル画像に対しアナログ変換を行う。
エンコーダ部105は、上記デジタル画像をJPEG,MPEG,H.264などのファイルフォーマットに変換する処理を行う。メディアインターフェース106は、映像処理装置をPCやその他メディア(例えば、ハードディスク,メモリーカード,CFカード,SDカード,USBメモリ)につなぐためのインターフェースである。
CPU107は、各構成の処理全てに関わり、 ROM108やRAM109に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM108とRAM109は、その処理に必要なプログラム,データ,作業領域などをCPU107に提供する。後述するフローチャートの処理もこのCPU107が行う。
撮像系制御部110は、フォーカスを合わせる,シャッターを開く,絞りを調節するなどの、CPU107から指示された撮像系の制御を行う。操作部111は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。レンズのズームなどの指示も、操作部111を介して行うことができる。
キャラクタージェネレータ112は、文字やグラフィックなどを生成する。表示部113は、一般的には液晶ディスプレイが広く用いられており、キャラクタージェネレーション部110やD/A変換部104から受け取った撮影画像や文字の表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、ユーザ指示を操作部111の入力として扱うことも可能である。
動き検出部114は、公知の3軸の加速度センサや角速度センサなどから構成され、映像処理装置にかかる動きに関する情報(傾き,動きの方向,加速度など)を検出する。
本実施形態では、上記映像処理装置の一形態として、ビデオカメラを例にとって説明する。
図2は、本実施形態における映像処理装置であるビデオカメラの外観を示す図である。
ボタン201は、撮影開始・終了を指示するためのボタンである。撮影が行われていない状態でボタン201が押下されると、映像の撮影を開始する。撮影が行われている状態でボタン201が押下されると、撮影を終了する。
ディスプレイ202は、各種情報を表示するためのディスプレイである。図1における表示部113に相当する。撮影中の映像に加え、文字やグラフィックなどを表示することができる。
図3に、本実施形態で用いる、映像補正の基準となる基準映像および映像補正の対象となる補正対象映像のスクリーンショットを示す。301は基準映像のスクリーンショットである。302は補正対象のスクリーンショットである。303はカメラの位置を検出するために設置された基準物体である。本実施形態では、基準映像301と補正対象映像302に同じ基準物体303が撮影されている。
基準映像301のように基準物体303近辺を被写体が移動していた場合、補正対象撮影時に被写体を移動させたい位置に基準物体303を設置する。基準映像301の被写体を切出し、本実施形態で補正処理を行った補正対象映像302合成を行った際、所望の位置を被写体が移動する映像を取得することができる。
尚ここで基準物体として立方体を用いているが、これは一例でありこれに限るものではない。
映し出されている同基準物体303の特徴点の位置関係から、基準映像301と補正対象映像302撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出する。特徴点としては、エッジの交点、輝度の高い点、低い点、色調が特徴的な点などがある。
尚、補正対象撮影時に基準映像のカメラ位置の情報を基に、撮影者にカメラ位置が一致するようにサポートしても良い。例えば、基準映像を透過させてファインダー画面に映す。または、基準物体303の特徴点の位置関係からカメラ位置の一致度を算出し、算出したカメラ位置一致度をファインダー画面に表示してもよい。
図4に本実施形態の映像補正処理の概念図を示す。401は、フレーム番号である。402は基準映像のフレーム画像である。403は補正対象映像の補正前のフレーム画像である。404は基準映像と補正対象映像のカメラ位置一致度の判定結果を示したものである。405は補正対象映像の補正後のフレーム画像である。
本実施形態では、フレーム番号158のカメラ位置が不一致と判定された場合、フレーム番号158の基準映像のフレーム、およびフレーム番号157と158の補正対象映像のカメラ位置が一致と判定された近傍のフレームの情報に基づいて補正処理を行う。尚、フレームの情報はフレーム画像およびカメラ位置の情報である。補正処理の詳細については後述する。
図8は、本実施形態の映像処理装置の概略を示したブロック図である。記憶媒体801は、データを蓄積するハードディスクなどであり、映像データなどを蓄積する。映像処理装置802は、映像の補正対象映像のカメラワークと基準映像のカメラワークとを一致させる映像処理を行う。基準映像選択部803は、基準映像を選択する。補正対象映像選択部804は補正対象映像を選択する。
検出部805は基準映像の特徴点と補正対象映像の特徴点を検出する。判定部806は、検出部805が検出した特徴点から、カメラ位置の一致度を判定する。判定処理の詳細は後述する。補正部807は、判定部806の判定結果と、検出部805の検出結果に基づき、補正対象映像のカメラ位置を補正することによって補正対象映像を補正する。補正処理の詳細は、後述する。
図示しないが、更に合成部を設け、基準映像と補正対象映像を合成するようにしてもよい。
図5に本実施形態の映像補正処理のフローチャートを示す。映像補正処理を開始すると、ステップS501で補正の基準となる基準映像を撮像済み映像から選択する。ここではユーザによって指定された映像を選択することとする。ステップS502で選択された基準映像の先頭フレームの画像を取得し、基準映像現フレーム画像とする。
尚、ここで映像の先頭フレーム画像を取得することにしているが、これは一例でありこれに限るものではない。例えば、ユーザに基準映像の開始位置を選択させ、その位置のフレーム画像を取得しても良い。また、開始の一定時間後のフレーム画像から取得しても良い。
ステップS503で基準映像現フレーム画像から、映像のカメラ位置を検出するために映している物体の特徴点をユーザに少なくとも3つ選択させ、基準特徴点とする。特徴点としては、エッジの交点や輝度が高い点などが上げられる。尚、ここでユーザに選択させているが、これは一例でありこれに限るものではない。例えば、特徴点が予め指定されているのであれば、パターンマッチングを行い自動的に検出してもよい。
ステップS504で補正処理を施す映像となる補正対象映像を撮像済み映像から選択する。ここではユーザが指定した映像を選択するものとする。ステップS505で選択された補正対象映像の先頭フレームの画像を取得し、補正対象映像現フレーム画像とする。補正対象映像現フレーム画像から、ステップS503で基準特徴点を選択した物体と同じ物体から、S506で各基準特徴点に対応する特徴点をユーザに選択させ、補正対象特徴点とする。
尚、ここでユーザに補正対象特徴点を選択させているが、これは一例でありこれに限るものではない。例えば、S503で選択された基準特徴点の情報を基に、パターンマッチングを行い自動的に検出しても良い。
ステップS507で基準映像現フレーム画像上での基準特徴点の座標を取得する。ステップS508で補正対象映像現フレーム画像上での補正対象特徴点の座標を取得する。ステップS509で、ステップS507およびステップS508で取得した基準特徴点および補正対象特徴点の座標を特徴点情報として記録する。
図6に特徴点情報の一例を示す。601は、取得した特徴点情報のフレームの時間である。単位はフレーム番号である。602は、特徴点を区別するためのIDである。603および604は、補正対象特徴点のx座標およびy座標である。単位はピクセルである。605および606は、基準特徴点のx座標およびy座標である。単位はピクセルである。尚、これは一例でありこれに限るものではない。
引き続き図5に基づき、映像補正処理の説明をする。ステップS510で特徴点情報から、各対応する特徴点の差分をフレーム毎に求めその合計値をカメラ位置一致度とする。例えば、補正対象特徴点の座標を(x1i,y1i)、基準特徴点の座標を(x2i,y2i)とする。各対応する特徴点の距離の二乗平均平方根式(1)をカメラ位置一致度とする。
尚、ここで用いたカメラ位置一致度の計算方法は一例でありこれに限るものではない。例えば、特開平9−231373号公報などに記載されている計算方法を用いて、映像撮影時のカメラの空間上の位置や姿勢を算出してもよい。
ステップS511で、ステップS510で算出した算出結果であるカメラ位置一致度に基づき、カメラ位置が一致しているか判定する。尚、ここではカメラ位置一致度が閾値以上の場合はカメラ位置が不一致、閾値未満の場合はカメラ位置が一致と判定するが、これは一例でありこれに限るものではない。
ステップS511でカメラ位置が一致と判定された場合、ステップS512で補正対象映像現フレームを補正非対象フレームとする。
ステップS511でカメラ位置が不一致と判定された場合、ステップS513で補正対象映像現フレームを補正対象フレームとする。
ステップS514で基準映像現フレームの次のフレーム画像を取得し、基準映像現フレーム画像とする。ステップS515で補正対象映像現フレームの次のフレーム画像を取得し、補正対象映像現フレーム画像とする。尚、ステップS514およびステップS515で次のフレーム画像を取得しているが、これは一例でありこれに限るものではない。例えば、一定数先のフレーム画像を取得しても良い。
ステップS516で基準映像または補正対象映像の全てのフレームをチェックしたか判定する。ステップS516で全てチェックし終わっていないと判定した場合、ステップS507の処理へ移行する。
ステップS516で全てチェックし終わったと判定した場合、フレーム補正処理を行う。(S517)フレーム補正処理については後述する。ステップS518で補正済み映像を記録し、映像補正処理を終了する。
図7に本実施形態のフレーム補正処理のフローチャートを示す。S701で、図5のステップS513で補正対象となった補正対象フレーム近傍の補正非対象フレームの画像を取得し、補正基フレーム画像とする。ステップS702で補正対象フレームおよび補正基フレームの特徴点情報を取得する。S703で取得した特徴点情報の補正基フレームの補正対象特徴点座標603および604およびステップS702で取得した補正対象フレームの基準特徴点の座標605および606からアフィン変換処理のパラメタを生成する。
補正基フレームの補正対象特徴点座標を(xi,yi)、補正対象フレームの基準特徴点座標を(Xi,Yi)とすると、二次元のアフィン変換の式は式(2)となる。
式(2)に補正元フレームの補正対象特徴点座標および補正対象フレームの基準特徴点座標を代入し連立方程式を導き、最小ニ乗法を用いて係数a〜fを求め、アフィン変換処理のパラメタとする。
ステップS704で生成したパラメタに基づき補正基フレーム画像にアフィン変換処理を行う。尚、ここで補正処理としてアフィン変換を用いているが、これは一例でありこれに限るものではない。
また本実施形態では、補正対象フレームの近傍のフレーム1枚のみを補正基フレームとしているが、複数枚でもよい。補正基フレームが複数枚の場合は、各補正基フレームのカメラ一致度に基づき透過度を決定し、決定した透過度に基づき各補正基フレームを合成する処理などの補正処理を行う。
また本実施形態では、補正対象映像を撮像済みの映像として処理を行っているが、撮影中の映像としてもよい。
以上説明したように、本発明によれば、手軽にカメラの動きが一致した映像を得ることができる。また、映像を合成しても自然な映像とすることができる。
(他の実施形態)
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種コンピュータ可読記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がコンピュータプログラムを読み出して実行する処理である。
Claims (9)
- 補正処理の基準となる基準映像と、該補正処理を施す補正対象映像の映像撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出する算出手段と、
前記算出手段による算出結果に応じ、前記基準映像と前記補正対象映像の映像撮影時のカメラ位置が一致するかを判定する判定手段と、
前記判定手段による判定の結果、一致しないと判定された補正対象映像を補正する補正手段と
を有することを特徴とする映像処理装置。 - 前記基準映像と補正対象映像それぞれから対応する特徴点を検出する検出手段を更に有し、
前記算出手段は、前記検出された特徴点に基づいて前記一致度を算出することを特徴とする請求項1に記載の映像処理装置。 - 前記算出手段は、前記一致度を、前記基準映像及び前記補正対象映像のフレーム毎に算出し、前記判定手段は、前記算出結果に基づいてフレーム毎に判定することを特徴とする請求項1または2に記載の映像処理装置。
- 前記補正手段は、前記判定手段による判定結果が一致しないと判定された補正対象映像のフレームを、前記前記判定手段による判定結果が一致すると判定されたフレームと置き換えることを特徴とする請求項3に記載の映像処理装置。
- 前記補正手段は、前記置き換えるフレームは、前記判定手段による判定結果が一致しないと判定された補正対象映像のフレームの近傍のフレームであることを特徴とする請求項4に記載の映像処理装置。
- 合成手段を更に有し、前記基準映像と、前記補正手段によって補正された補正対象映像を合成することを特徴とする請求項1から5のいずれか1項に記載の映像処理装置。
- 補正処理の基準となる基準映像と、該補正処理を施す補正対象映像の映像撮影時のそれぞれの映像における該映像を撮影するカメラの相対位置であるカメラ位置の一致度を算出手段が算出する算出工程と、
前記算出手段による算出結果に応じ、前記基準映像と前記補正対象映像の映像撮影時のカメラ位置が一致するかを判定手段が判定する判定工程と、
前記判定工程による判定の結果、一致しないと判定された補正対象映像を補正手段が補正する補正工程と
を有することを特徴とする映像処理装置の制御方法。 - コンピュータに読み込み込ませることで、請求項7に記載の映像処理装置の制御方法をコンピュータに実行させるためのコンピュータプログラム。
- 請求項8に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011264482A JP2013118471A (ja) | 2011-12-02 | 2011-12-02 | 映像処理装置およびその制御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011264482A JP2013118471A (ja) | 2011-12-02 | 2011-12-02 | 映像処理装置およびその制御方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013118471A true JP2013118471A (ja) | 2013-06-13 |
Family
ID=48712753
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011264482A Pending JP2013118471A (ja) | 2011-12-02 | 2011-12-02 | 映像処理装置およびその制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013118471A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021022912A (ja) * | 2019-07-30 | 2021-02-18 | 国立大学法人 東京大学 | 映像合成装置 |
-
2011
- 2011-12-02 JP JP2011264482A patent/JP2013118471A/ja active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021022912A (ja) * | 2019-07-30 | 2021-02-18 | 国立大学法人 東京大学 | 映像合成装置 |
| JP7480941B2 (ja) | 2019-07-30 | 2024-05-10 | 国立大学法人 東京大学 | 映像合成装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109194876B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
| JP4862930B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| CN109544620B (zh) | 图像处理方法和装置、计算机可读存储介质和电子设备 | |
| TWI420901B (zh) | 攝像裝置、攝像方法及攝像程式 | |
| US20130135428A1 (en) | Method of providing panoramic image and imaging device thereof | |
| JP6222514B2 (ja) | 画像処理装置、撮像装置、およびコンピュータブログラム | |
| KR20090088325A (ko) | 화상 처리 장치, 화상 처리 방법 및 촬상 장치 | |
| JP2012195668A (ja) | 画像処理装置、画像処理方法およびプログラム | |
| TWI469085B (zh) | 影像處理裝置、影像處理方法及電腦可讀取記憶媒體 | |
| JP2020107956A (ja) | 撮像装置、撮像方法およびプログラム | |
| JP6656035B2 (ja) | 画像処理装置、撮像装置および画像処理装置の制御方法 | |
| JP2016085380A (ja) | 制御装置、制御方法、及び、プログラム | |
| JP2011066827A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP4807582B2 (ja) | 画像処理装置、撮像装置及びそのプログラム | |
| JP2017049947A (ja) | 画像処理装置および画像処理方法 | |
| JP7458769B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 | |
| JP2021180366A (ja) | 撮像装置及びその制御方法、並びにプログラム | |
| JP2013118471A (ja) | 映像処理装置およびその制御方法 | |
| JP6218520B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP6828069B2 (ja) | 撮像装置、撮像方法およびプログラム | |
| JP5863280B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
| JP2009027437A (ja) | 画像処理装置,画像処理方法及び撮像装置 | |
| JP5287965B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP5565227B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP6729583B2 (ja) | 画像処理装置および方法 |