[go: up one dir, main page]

JP2019164782A - 画像処理装置、撮影システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮影システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019164782A
JP2019164782A JP2019042282A JP2019042282A JP2019164782A JP 2019164782 A JP2019164782 A JP 2019164782A JP 2019042282 A JP2019042282 A JP 2019042282A JP 2019042282 A JP2019042282 A JP 2019042282A JP 2019164782 A JP2019164782 A JP 2019164782A
Authority
JP
Japan
Prior art keywords
image
unit
information
reference shape
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019042282A
Other languages
English (en)
Inventor
啓一 河口
Keiichi Kawaguchi
啓一 河口
浩 水藤
Hiroshi Mizufuji
浩 水藤
洋介 川村
Yosuke Kawamura
洋介 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/353,817 priority Critical patent/US20190289206A1/en
Priority to CN201910196447.3A priority patent/CN110392202A/zh
Publication of JP2019164782A publication Critical patent/JP2019164782A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】低精細の全天球画像CEの一部の領域に、全天球画像CEとは別に撮影することで得られた高精細の平面画像Pを重畳しようとしても、正距円筒射影画像EC(全天球画像CE)と平面画像Pは射影方式が異なるため、見えづらいという課題が生じる。【解決手段】画像処理装置は、第1の画像ECにおいて第2の画像Pに対応する第1の対応領域CA1を算出し、領域CA1を含む周辺領域PAを特定して、領域PAを画像Pの射影方式に変換する(S140)。画像処理装置は、変換後の画像PIにおいて、画像Pに対応する第2の対応領域CA2を算出する(S160)。画像処理装置は、矩形の初期設定形状を生成し(S170)、初期設定形状を画像ECの射影方式に変換することで基準形状を作成する(S200)。画像処理装置は、初期設定形状に対する画像Pの関係に基づいて、基準形状を変換するための基準形状変換情報を算出する(S180)。【選択図】図19

Description

本発明は、画像処理装置、撮影システム、画像処理方法、及びプログラムに関するものである。
従来、広角の平面画像のうちの一部の領域に、広角の平面画像とは別に撮影することで得られた拡大の平面画像を嵌め込むことで、上記一部の領域を拡大しても鮮明な画像を表示することができる技術が開示されている(特許文献1参照)。
ところで、近年、一度の撮影で、360°の全天球画像の元になる2つの半球画像データを得る特殊なデジタルカメラが提供されている(特許文献2参照)。このデジタルカメラは、2つの半球画像データに基づいて1つの正距円筒射影画像データを作成し、スマートフォン等の通信端末に正距円筒射影画像データを送信する。正距円筒射影画像データを得た通信端末は、正距円筒射影画像データに基づいて全天球画像を作成する。但し、そのままでは画像が湾曲して利用者が見えづらいため、通信端末に全天球画像の一部の所定領域を示す所定領域画像を表示させることで、利用者は一般のデジタルカメラで撮影された平面画像と同じ感覚で閲覧することができる。
しかしながら、例えば、全天球画像の一部の領域に、全天球画像とは別に撮影することで得られた平面画像を重畳等する場合のように、射影方式が異なる一方の画像に他方の画像を重畳等すると、見えづらいという課題が生じる。
請求項1に係る発明は、第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像と、前記第1の画像上で前記第2の画像に対応する基準形状を示す基準形状情報と、前記第1の画像上で前記基準形状を変換するための基準形状変換情報とを取得する取得手段と、前記基準形状変換情報に基づいて前記基準形状情報を変換することで、前記第2の画像に対応する合成画像を作成する画像作成手段と、前記合成画像を前記第1の画像に合成する画像合成手段と、を有することを特徴とする画像処理装置である。
以上説明したように本発明によれば、射影方式が異なる一方の画像に他方の画像を合わせても、見えづらさを抑制することができるという効果を奏する。
(a)は特殊撮影装置の左側面図であり、(b)は特殊撮影装置の背面図であり、(c)は特殊撮影装置の平面図であり、(d)は特殊撮影装置の底面図である。 特殊撮影装置の使用イメージ図である。 (a)は特殊撮影装置で撮影された半球画像(前)、(b)は特殊撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。 (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 本発明の第1の実施形態に係る撮影システムの概略図である。 撮影システムの使用イメージ図である。 特殊撮影装置のハードウェア構成図である。 一般撮影装置のハードウェア構成図である。 スマートフォンのハードウェア構成図である。 第1の実施形態に係る撮影システムの機能ブロック図である。 (a)は連携撮影装置管理テーブルの概念図、(b)連携撮影装置設定画面を示す概念図である。 第1の実施形態に係るメタデータ作成部の詳細な機能ブロック図である。 第1の実施形態に係る重畳部の詳細な機能ブロック図である。 重畳表示メタデータの構成図である。 第1の実施形態に係る撮影方法を示したシーケンス図である。 重畳表示パラメータの作成処理の過程における画像の概念図である。 周辺領域画像を特定する際の概念図である。 (a)は初期設定形状を示した概念図、(b)は周辺領域画像及び第2の対応領域を示した概念図、(c)は領域分割した初期設定形状の概念図である。 (a)基準形状の中心を全天球画像の中心に配置したときの概念図、(b)基準形状の中心を全天球画像の中心以外の点に配置したときの概念図である。 重畳表示の処理の課程における画像の概念図である。 角度パラメータの補間方法を示す概念図である。 位置パラメータ算出部における処理の流れを示した三次元の概念図である。 (a)は第3の対応領域の格子領域を示した概念図、(b)は平面画像の格子領域を示した概念図である。 4つの格子領域と角の1点である共通の格子点を示した概念図である。 重畳の処理の課程における画像の概念図である。 全天球画像に平面画像を重畳した場合の二次元の概念図である。 全天球画像に平面画像を重畳した場合の三次元の概念図である。 本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。 本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。 (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。 動画の所定領域画像内に動画の平面画像が表示されている例を示す図である。 本発明の第2の実施形態に係る撮影システムの概略図である。 画像処理サーバのハードウェア構成図である。 第2の実施形態に係る撮影システムの機能ブロック図である。 第2の実施形態に係るメタデータ作成部の詳細な機能ブロック図である。 第2の実施形態に係る重畳部の詳細な機能ブロック図である。 第2の実施形態に係る撮影方法を示したシーケンス図である。
以下、図面を用いて、本発明の実施形態について説明する。なお、後述の全天球画像は第1の画像の一例であり、重畳画像は第2の画像の一例である。周辺領域画像は第3の画像の一例である。
〔実施形態の概要〕
以下、本実施形態の概要について説明する。
まずは、図1乃至図7を用いて、全天球画像の生成方法について説明する。
まず、図1を用いて、特殊撮影装置1の外観を説明する。特殊撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は特殊撮影装置の左側面図であり、図1(b)は特殊撮影装置の背面図であり、図1(c)は特殊撮影装置の平面図であり、図1(d)は特殊撮影装置の底面図である。
図1(a),図1(b),図1(c),図(d)に示されているように、特殊撮影装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。特殊撮影装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。特殊撮影装置1の正面側と反対側の面には、シャッターボタン115aが設けられている。また、特殊撮影装置1の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モードと動画の撮影モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。
また、特殊撮影装置1の底部150の中央には、カメラ用三脚に特殊撮影装置1や一般撮影装置3を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子153が設けられている。なお、HDMIは登録商標である。
次に、図2を用いて、特殊撮影装置1の使用状況を説明する。なお、図2は、特殊撮影装置の使用イメージ図である。特殊撮影装置1は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図3及び図4を用いて、特殊撮影装置1で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は特殊撮影装置1で撮影された半球画像(前側)、図3(b)は特殊撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、特殊撮影装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像CEが、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。
そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮影方向(ea,aa)と画角(α)を用いて説明する。
図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「ea」はelevation angle、「aa」はazimuth angle、「α」は画角(Angle)を示す。即ち、撮影方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。
L/f=tan(α/2)・・・(式1)
〔第1の実施形態〕
続いて、図8乃至図34を用いて、本発明の第1の実施形態について説明する。
<<撮影システムの概略>>
まずは、図8を用いて、本実施形態の撮影システムの構成の概略について説明する。図8は、本実施形態の撮影システムの構成の概略図である。
図8に示されているように、本実施形態の撮影システムは、特殊撮影装置1、一般撮影装置3、スマートフォン5、及びアダプタ9によって構成されている。特殊撮影装置1はアダプタ9を介して一般撮影装置3に接続されている。
これらのうち、特殊撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。
一般撮影装置3は、コンパクトデジタルカメラであるが、デジタル一眼レフカメラであってもよい。
スマートフォン5は、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、特殊撮影装置1及び一般撮影装置3と無線通信を行なうことができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、特殊撮影装置1及び一般撮影装置3からそれぞれ取得した画像を表示することができる。
なお、スマートフォン5は、近距離無線通信技術を利用せずに、有線ケーブルによって特殊撮影装置1及び一般撮影装置3と通信を行なうようにしてもよい。また、スマートフォン5は、画像処理装置の一例であり、画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPCも含まれる。なお、スマートフォンは、後述の通信端末の一例でもある。
アダプタ9は、ブラケット9a及び回動機構9bによって構成されている。ブラケット9aの先端側には特殊撮影装置1の三脚ねじ穴151に取り付けるための三脚ねじ9cが取り付けられている。ブラケット9aの基端側には回動機構9bが取り付けられている。回転機構9bには、一般撮影装置3が取り付けられており、図8に示されているように、一般撮影装置3を3軸により、Pitech,Yaw,Rollの回動を行うことができる。
図9は、撮影システムの使用イメージ図である。図9に示されているように、利用者は、三脚2の上に特殊撮影装置1及び一般撮影装置3が取り付けられたアダプタ9を取り付ける。そして、利用者は、スマートフォン5を操作して、遠隔的に、回転機構9bを駆動させたり、特殊撮影装置1及び一般撮影装置3の撮影の開始及び終了を行ったりすることができる。なお、三脚2を用いずに、設置台等を用いてもよい。
<<実施形態のハードウェア構成>>
次に、図10及び図12を用いて、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5のハードウェア構成を詳細に説明する。
<特殊撮影装置のハードウェア構成>
まず、図10を用いて、特殊撮影装置1のハードウェア構成を説明する。図10は、特殊撮影装置1のハードウェア構成図である。以下では、特殊撮影装置1は、2つの撮像素子を使用した全天球(全方位)特殊撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に特殊撮影装置1と同じ機能を有するようにしてもよい。
図10に示されているように、特殊撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。特殊撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、特殊撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、特殊撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。
通信部117は、特殊撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から特殊撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。
加速度センサ120は、3軸方向の加速度を検出するセンサである。特殊撮影装置3aは、加速度センサ120が検出した加速度に基づいて、自装置(特殊撮影装置3a)の姿勢(重力方向に対する角度)を算出する。特殊撮影装置3aに、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。
端子121は、Micro USB用の凹状の端子である。
<一般撮影装置のハードウェア構成>
次に、図11を用いて、一般撮影装置のハードウェアについて説明する。図11は、一般撮影装置3のハードウェア構成図である。図11に示されているように、一般撮影装置3は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、バス310、CPU311、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信部317、アンテナ317a、電子コンパス318、及びディスプレイ319によって構成されている。画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続される。
各構成304、310、311、312、313、314、315、316、317、317a、318は、それぞれ、図10の特殊撮影装置1における各構成104、110、111、112、113、114、115、116、117、117a、118と同様の構成であるため、その説明を省略する。
更に、一般撮影装置3の撮像ユニット301は、図11に示されているように、撮像素子303の前面にレンズユニット306、及びメカニカルシャッタ307が外部から撮像素子303の方向に順に設けられている。
撮像制御ユニット305は、基本的に撮像制御ユニット105と同様の構成及び処理を行なうが、更に、操作部315によって受け付けられた利用者の操作に基づいて、レンズユニット306、及びメカニカルシャッタ307の駆動を制御する。
また、ディスプレイ319は、操作メニュー、撮影中又は撮影後の画像を表示させる表示手段の一例である。
<スマートフォンのハードウェア構成>
次に、図12を用いて、スマートフォンのハードウェアについて説明する。図12は、スマートフォンのハードウェア構成図である。図12に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
これらのうち、CPU501は、スマートフォン5全体の動作を制御する。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。
また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。
これらのうち、遠距離通信回路511は、後述の通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。
また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
<<実施形態の機能構成>>
次に、図10乃至図13を用いて、本実施形態の機能構成について説明する。図13は、本実施形態の撮影システムの一部を構成する、特殊撮影装置1、一般撮影装置3、及びスマートフォン5の各機能ブロック図である。
<特殊撮影装置の機能構成>
まず、図10及び図13を用いて、特殊撮影装置1の機能構成について詳細に説明する。図13に示されているように、特殊撮影装置1は、受付部12、撮像部13、集音部14、画像・音処理部15、判断部17、近距離通信部18、及び記憶・読出部19を有している。これら各部は、図10に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された特殊撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、特殊撮影装置1は、図10に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(特殊撮影装置の各機能構成)
次に、図10及び図13を用いて、特殊撮影装置1の各機能構成について更に詳細に説明する。
特殊撮影装置1の受付部12は、主に、図10に示されている操作部115及びCPU111の処理によって実現され、利用者からの操作入力を受け付ける。
撮像部13は、主に、図10に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、図3(a),(b)に示されているように、全天球画像データの元になる2つの半球画像データである。
集音部14は、図10に示されているマイク108及び音処理ユニット109、並びにCPU111の処理によって実現され、特殊撮影装置1の周囲の音を集音する。
画像・音処理部15は、主にCPU111からの命令によって実現され、撮像部13によって得られた撮影画像データ、又は集音部14によって得られた音データに対して、各種処理を行なう。例えば、画像・音処理部15は、2つの撮像素子103a,103bのそれぞれによって得られた2つの半球画像データ(図3(a),(b)参照)に基づいて、正距円筒射影画像データ(図3(c)参照)を作成する。
判断部17は、CPU111の処理によって実現され、各種判断を行なう。
近距離通信部18は、主に、CPU111の処理、並びに通信部117及びアンテナ117aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部19は、主に、図10に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
<一般撮影装置の機能構成>
続いて、図11及び図13を用いて、一般撮影装置3の機能構成について詳細に説明する。図13に示されているように、一般撮影装置3は、受付部32、撮像部33、集音部34、画像・音処理部35、表示制御部36、判断部37、近距離通信部38、及び記憶・読出部39を有している。これら各部は、図11に示されている各構成要素のいずれかが、SRAM313からDRAM314上に展開された特殊撮影装置用のプログラムに従ったCPU311からの命令によって動作することで実現される機能又は手段である。
また、一般撮影装置3は、図11に示されているROM312、SRAM313、及びDRAM314によって構築される記憶部3000を有している。
(一般撮影装置の各機能構成)
一般撮影装置3の受付部32は、主に、図11に示されている操作部315及びCPU311の処理によって実現され、利用者からの操作入力を受け付ける。
撮像部33は、主に、図11に示されている撮像ユニット301、画像処理ユニット304、及び撮像制御ユニット305、並びにCPU311の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、透視射影方式で撮影された平面画像データである。
集音部34は、図11に示されているマイク308及び音処理ユニット309、並びにCPU311の処理によって実現され、一般撮影装置3の周囲の音を集音する。
画像・音処理部35は、主にCPU311からの命令によって実現され、撮像部33によって得られた撮影画像データ、又は集音部34によって得られた音データに対して、各種処理を行なう。
表示制御部36は、図11に示されているCPU311の処理によって実現され、ディスプレイ319に、撮影中又は撮影後の撮影画像データに係る平面画像Pを表示させる。
判断部37は、CPU311の処理によって実現され、各種判断を行なう。例えば、判断部37は、利用者によって、シャッターボタン315aが押下されたかを判断する。
近距離通信部38は、主に、CPU311、並びに通信部317及びアンテナ317aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部39は、主に、図11に示されているCPU311の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
<スマートフォンの機能構成>
次に、図12乃至図16を用いて、スマートフォン5の機能構成について詳細に説明する。図13に示されているように、スマートフォン5は、遠距離通信部51、受付部52、撮像部53、集音部54、画像・音処理部55、表示制御部56、判断部57、近距離通信部58、及び記憶・読出部59を有している。これら各部は、図12に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、スマートフォン5は、図12に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。この記憶部5000には、連携撮影装置管理DB5001が構築されている。この連携撮影装置管理DB5001は、図14(a)連携撮影装置管理テーブルによって構成されている。図14(a)は連携撮影装置管理テーブルの概念図である。
(連携撮影装置管理テーブル)
次に、図14(a)を用いて、連携撮影装置管理テーブルについて説明する。図14(a)に示されているように、撮影装置毎に、各撮影装置の連携関係を示す関連関係情報、撮影装置のIPアドレス、及び撮影装置の装置名が関連付けて管理されている。このうち、関連関係情報は、自装置のシャッターが押下されることで撮影を開始する一の撮影装置を「メイン」とし、「メイン」の撮影装置でシャッターが押下されることに応じて撮影を開始する他の撮影装置を「サブ」として示している。なお、IPアドレスは、Wi-Fiによる通信の場合であって、USBの有線ケーブルを用いた通信の場合には製造者ID(Identification)及び製品IDに代わり、Bluetoothを用いた無線通信の場合には、BD(Bluetooth Device Address)に代わる。
(スマートフォンの各機能構成)
スマートフォン5の遠距離通信部51は、主に、図12に示されている遠距離通信回路511及びCPU501の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(例えば、他のスマートフォン、サーバ)との間で各種データ(または情報)の送受信を行う。
受付部52は、主にタッチパネル521及びCPU501の処理によって実現され、利用者から各種の選択又は入力を受け付ける。タッチパネル521はディスプレイ517と共用であってもよい。また、タッチパネル以外の入力手段(ボタン)等でもよい。
撮像部53は、主に、図12に示されているCMOSセンサ505,512、及びCPU501の処理によって実現され、被写体や風景等を撮像し、撮影画像データを得る。この撮影画像データは、透視射影方式で撮影された平面画像データである。
集音部54は、図12に示されているマイク514、及びCPU501の処理によって実現され、スマートフォン5の周囲の音を集音する。
画像・音処理部55は、主にCPU501からの命令によって実現され、撮像部53によって得られた撮影画像データ、又は集音部54によって得られた音データに対して、各種処理を行なう。
表示制御部56は、図12に示されているCPU501の処理によって実現され、ディスプレイ517に、撮像部53による撮影中又は撮影後の撮影画像データに係る平面画像Pを表示させる。また、表示制御部56は、画像・音処理部55によって作成された重畳表示メタデータを利用し、基準形状情報(基準位置パラメータ)に対して基準形状変換情報で特定される背景動画(全天球画像CE)上の変換位置パラメータ、及び補正パラメータで示された明るさ値及び色値に基づいて、全天球画像CE上に平面画像Pを重畳して表示する。なお、変換位置パラメータは「変換位置情報」の一例である。補正パラメータは「補正情報」の一例である。
判断部57は、図12に示されているCPU501の処理によって実現され、各種判断を行なう。
近距離通信部58は、主に、CPU501の処理、並びに近距離通信回路519及びアンテナ519aによって実現され、特殊撮影装置1の近距離通信部18、一般撮影装置3の近距離通信部38等と、Wi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部59は、主に、図12に示されているCPU501の処理によって実現され、記憶部5000に、重畳表示メタデータ等の各種データ(または情報)を記憶したり、記憶部5000から重畳表示メタデータ等の各種データ(または情報)を読み出したりする。また、記憶・読出部59は、記憶部5000から各種データを取得する取得部の役割を果たす。
(画像・音処理部の詳細な各機能構成)
ここで、図15及び図16を用いて、画像・音処理部55の各機能構成について詳細に説明する。図15は、第1の実施形態に係るメタデータ作成部の詳細な機能ブロック図である。図16は、第1の実施形態に係る重畳部の詳細な機能ブロック図である。
画像・音処理部55は、大きく分けて、エンコードを行なうメタデータ作成部55aとデコードを行なう重畳部55bを有している。メタデータ作成部55aは、図18に示されている後述のステップS19の処理を実行する。また、重畳部55bは、図18に示されている後述のステップS20の処理を実行する。
{メタデータ作成部の各機能構成}
まずは、メタデータ作成部55aの各機能構成について説明する。メタデータ作成部55aは、(メタデータ)作成用動画フレーム抽出部548、抽出部550、第1の対応領域算出部552、注視点特定部554、射影方式変換部556、第2の対応領域算出部558、初期設定形状生成部559、領域分割部560、射影方式逆変換部562、基準形状変換情報算出部568、及び重畳表示メタデータ作成部570を有している。また、以下に説明する画像や領域を示す符号は図19に示されている。図19は、重畳表示パラメータの作成処理の過程における画像の概念図である。
作成用動画フレーム抽出部548は、背景動画となる一方の動画像と、前景動画となる他方の動画像のそれぞれから、それぞれ指定された時刻に対応するフレーム画像を抽出する。動画像は様々な記録フォーマットがあることは周知のことであるが、時系列に沿って複数の静止画像が並べられた画像としてとらえることができる。そして、1秒間の動画を構成する静止画像の枚数がフレームレートであり、例えば、秒1コマ(1コマ/1秒)などで表現される。したがって、動画記録開始の最初のフレームを時刻0とすると、時刻Tにおけるフレーム画像はフレームレートと時刻の関係から何番目のフレーム画像となるかを算出及び抽出することができる。もちろん指定された時刻tiと同時刻となるフレーム画像は存在しない場合があり、前後のフレーム画像で近いものを時刻tiのフレームとするなどの処理が考えられる。本実施形態では背景動画となる動画と、前景動画となる動画の2つの動画を取り扱うが、それぞれの動画開始時刻がずれている場合がある。本実施形態では背景動画に前景動画を重畳するための重畳位置を算出するため、取り扱う画像は時刻の差が小さい方が扱いやく、前景動画および背景動画の記録開始時刻がずれている場合は、前景動画又は背景動画のどちらかに時刻の基準を合わせると良い。前景動画及び背景動画としての2つの動画の開始画像フレームを合わせるための時刻のずれを算出する方法は、例えば、それぞれ動画において画像とともに音が記録されている場合は、それぞれの動画における音データの相互相関を算出し、相互相関のずれが最小になる時刻のずれを求める方法や、音データが無い場合は、それぞれのフレーム画像間での画像相関から求める方法などある。
ここで、背景動画と前景動画の同期に関して説明を補足する。例えば、それぞれの動画のフレームレートが30fpsと24fpsとして記録された背景動画と前景動画があったとする。この場合、上述の音データによる相互相関を算出し、背景動画が前景動画よりも0.5秒早く撮影された場合、背景動画と前景動画の開始フレームをあわせるために、背景動画を0.5秒分、即ち(30×0.5=)15フレーム分オフセットさせることで時刻の同期を実現する。よって同期後の1秒間隔の動画フレームはそれぞれの動画のフレームを考慮し、背景動画のフレームカウントは15,45,75,105・・・となり、前景動画のフレームカウントは0,24,48,72・・・となる。ここでは、前景動画及び背景動画の各動画開始フレームのずれを考慮した上で、時刻tiにおける背景動画のフレームを正距円筒射影画像ECi、同じ時刻tiにおける前景動画のフレームを平面画像Piとする。即ち、正距円筒射影画像ECiと平面画像Piは、同じ時間に撮影されることで得られた動画の一フレームである。なお、相互相関の算出方法に関しては、公知の技術を使えば良く本実施形態の本質部分ではないため、詳細な説明は省略する。以上のように、相互に画像間の同期については、公知の技術を使えば良く本実施形態の本質部分ではないため、詳細な説明は省略する。
抽出部550は、各画像ECi,Piの局所特徴に基づき特徴点を抽出する。局所特徴とは、エッジやブロブなど画像内に見られるパターンや構造である。局所特徴を数値化したものが特徴量である。本実施形態では、抽出部550は、異なる画像で各特徴点を抽出する。抽出部550が用いられる2つの画像は、歪みが著しく大きくない限り、異なる射影方式であってもよい。例えば、抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECiと、透視射影方式によって得られた長方形の平面画像Piとの間、及び、平面画像Piと、射影方式変換部556によって変換された後の周辺領域画像PIiとの間で用いられる。なお、正距円筒射影方式は第1の射影方式の一例であり、透視射影方式は第2の射影方式の一例である。また、正距円筒射影画像は第1の射影画像の一例であり、平面画像は第2の射影画像の一例である。
第1の対応領域算出部552は、最初に正距円筒射影画像ECiにおける複数の特徴点fp1に基づいた各特徴量fv1を求めるとともに、平面画像Piにおける複数の特徴点fp2に基づいた各特徴量fv2を求める。特徴量の記述方法はいくつかの方式が提案されているが、本実施形態においては、スケールや回転に対して不変又は頑強であることが望ましい。第1の対応領域算出部552は、続いて算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Piにおける複数の特徴点fp2に対する特徴量fv2の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第1のホモグラフィ変換を行なう。その結果、第1の対応領域算出部552は、第1の対応領域CA1を算出する。この場合、平面画像Piの4頂点から成る四角形(矩形)の中心点CP1は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける注視点GP1に変換される。
なお、平面画像Piの4頂点の頂点座標を、p1=(x1,y1)、p2=(x2,y2)、p3=(x3,y3)、p4=(x4,y4)とすると、第1の対応領域算出部552は、以下に示す(式2)に基づいて、中心点CP1(x,y)を定めることができる。
図19では平面画像Piの画像形状が長方形であるが、対角線の交点を用いることによって正方形、台形、菱形等、さまざまな四角形の部分画像に対しても中心座標を算出することができる。平面画像Piの画像形状が、長方形、正方形に限定される場合は、計算の省略化のため、対角線の中点を部分画像の中心座標PCとしてよい。対角線P1P3の中点の算出する場合の(式3)を以下に示す。
注視点特定部554は、平面画像Piの中心点CP1が第1のホモグラフィ変換後に位置する正距円筒射影画像ECi上の点(本実施形態では「注視点」という)を特定する。
ところで、注視点GP1の座標は、正距円筒射影画像EC上の座標であるため、緯度及び経度の表現に変換すると都合が良い。具体的には、正距円筒射影画像ECiの垂直方向を−90度(−0.5π)から+90度(+0.5π)の緯度座標として表現し、水平方向を−180度(−π)から+180度(+π)の経度座標として表現する。このようにすることで、緯度・経度座標から、正距円筒射影画像ECiの画像サイズに対応した画素位置座標を算出することができる。
射影方式変換部556は、正距円筒射影画像ECi内の注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換することで、周辺領域画像PIiを作成する。この場合、注視点GP1が変換された後の点を中心点CP2として、平面画像Piの対角画角αと同じ画角を垂直画角(又は水平画角)とした場合に特定することができる正方形の周辺領域画像PIiを結果的に作成することができるように、射影変換元の周辺領域PAを特定する。以下、更に詳細に説明する。
(射影方式の変換)
まず、射影方式の変換について説明する。図3乃至図5を用いて説明したように、正距円筒射影画像ECによって立体球CSを被うことで、全天球画像CEを作成している。よって、正距円筒射影画像ECの各画素データは、3次元の全天球画像の立体球CSの表面における各画素データに対応させることができる。そこで、射影方式変換部556による変換式は、正距円筒射影画像ECiにおける座標を(緯度,経度)=(ea,aa)と表現し、3次元の立体球CS上の座標を直行座標(x,y,z)で表わすと、以下の(式4)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式4)
但し、このときの立体球CSの半径は1とする。
一方で、透過射影画像である平面画像Piは2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角αに対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、平面画像Pを2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式5)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式5)
次に、この(式5)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像ECを透視射影変換する射影は、立体球CSの中心に仮想カメラICがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式6)、(式7)で表わすことができる。
r = tan(極角) ・・・(式6)
a = 方位角 ・・・(式7)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の(式8)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式8)
上記の(式8)により、正距円筒射影方式による正距円筒射影画像ECiと、透視射影方式による平面画像Piの相互変換ができるようになった。即ち、作成すべき平面画像Pの対角画角αに対応する動径rを用いることで、平面画像Pの各画素が、正距円筒射影画像ECのどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像ECiから、透視射影画像である周辺領域画像PIiを作成することができる。
ところで、上記射影方式の変換は、正距円筒射影画像ECの(緯度,経度)が(90°,0°)となる位置が、透視射影画像である周辺領域画像PIの中心点CP2となるような変換を示している。そこで、正距円筒射影画像ECiの任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像ECを貼り付けた立体球CSを回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。
この立体球CSの回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。
(周辺領域画像の特定)
次に、図20を用いて、周辺領域画像PIiの領域を特定する方法について説明する。なお、図20は、周辺領域画像を特定する際の概念図である。
第1の対応領域算出部552が、平面画像Piと周辺領域画像PIiの対応関係を判断するにあたって、周辺領域画像PIi内に第2の対応領域CA2ができるだけ広く含まれていることが望ましい。よって、周辺領域画像PIiを広い領域に設定すれば、第2の対応領域CA2を含まないという事態は生じない。しかし、周辺領域画像PIiを、あまりにも広い領域に設定すると、その分だけ類似度を算出する対象の画素が増えるため、処理に時間が掛かってしまう。そのため、極力、周辺領域画像PIiの領域は第2の対応領域CA2を含む範囲内で小さい方が良い。そこで、本実施形態では、以下に示すような方法で、周辺領域画像PIを特定する。
本実施形態では、周辺領域画像PIiの特定に、平面画像の35mm換算焦点距離を使用するが、これは撮影時に記録されるExifデータから取得される。35mm換算焦点距離は、いわゆる24mm x 36mmのフィルムサイズを基準とした焦点距離であるため、このフィルムの対角と、焦点距離から以下の算出式(式9)、(式10)で対応する対角画角を算出することができる。
フィルム対角 = sqrt(24*24 + 36*36) ・・・(式9)
合成用画像画角/2 = arctan((フィルム対角/2)/合成用画像35mm換算焦点距離)・・(式10)
ところで、この画角をカバーする画像は円形となるのだが、実際の撮像素子(フィルム)は長方形なので円に内接する長方形画像となっている。本実施形態では、周辺領域画像PIiの垂直画角αを、平面画像Piの対角画角αと同じになるように設定する。これにより、図20(b)に示されている周辺領域画像PIiは、図20(a)に示されている平面画像Piの対角画角αをカバーする円に外接する正方形となり、垂直画角αは、下記(式11)、(式12)で示されているように、正方形の対角と平面画像Pの焦点距離から算出できる。
正方形対角=sqrt(フィルム対角*フィルム対角+フィルム対角*フィルム対角)・・・(式11)
垂直画角α/2 = arctan((正方形対角/2) / 平面画像の35mm換算焦点距離))・・・(式12)
このような垂直画角αで射影変換することで、注視点を中心に平面画像Piの対角画角αにおける画像をできるだけ広くカバーでき、かつ垂直画角αが大きくなりすぎない周辺領域画像PIi(透視射影画像)を作成することができる。
(位置情報の算出)
続いて、図15に戻り、第2の対応領域算出部558は、平面画像Piにおける複数の特徴点fp2と周辺領域画像PIiにおける複数の特徴点fp3の特徴量fv3を算出する。算出された各特徴量fv2,fv3の類似度に基づき画像間の対応点を算出し、算出した画像間の対応点の関係から、周辺領域画像PIiにおいて、平面画像Pに対応するホモグラフィを算出し、このホモグラフィを変換に用いることで、第2のホモグラフィ変換を行なう。その結果、第2の対応領域算出部558は、第2の対応領域CA2を算出する。
なお、第1のホモグラフィ変換の前に、第1のホモグラフィの算出時間を早めるために、平面画像Pi及び正距円筒射影画像ECiのうちの少なくとも一方の画像サイズをリサイズしてもよい。例えは、平面画像Piが4000万画素で、正距円筒射影画像ECiが3000万画素の場合、平面画像Piを3000万画素にリサイズしたり、両画像を1000万画素になるようにそれぞれの画像をリサイズしたりする。同様に、第2のホモグラフィ算出の前に、平面画像Pi及び周辺領域画像PIiの少なくとも一方の画像サイズをリサイズしてもよい。
ここで、一般的にホモグラフィとは、ある平面を射影変換を用いて別の平面に射影することを言う。また、本実施形態でのホモグラフィについて、以下に概要を示す。第1のホモグラフィ変換は、正距円筒射影画像ECiと平面画像Piとの射影関係を表すものとして、変換行列として示しており、平面画像Piにおける座標に、ホモグラフィ算出処理で算出したホモグラフィ変換行列を乗算することで、正距円筒射影画像ECi(全天球画像CE)上での対応座標を算出することができる。具体的には、平面画像Piの4頂点から成る四角形(矩形)の中心点CP1は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける注視点GP1を算出することができる。次に、第2のホモグラフィ変換は、正距円筒射影画像ECiを所定の射影方式変換した周辺領域画像PIiと平面画像Piとの射影関係を表すものとして、変換行列として示しており、平面画像Piにおける座標に、ホモグラフィ算出処理で算出したホモグラフィによる射影変換の行列を乗算することで、周辺領域画像PIi上での対応座標を算出することができる。
図21(a)は初期設定形状を示した概念図、図21(b)は周辺領域画像及び第2の対応領域を示した概念図、図21(c)は領域分割した初期設定形状の概念図である。
初期設定形状生成部559は、正距円筒射影方式であって平面画像Piの形状に対して射影変換(ホモグラフィ)の関係にあり、予め定められた画角と射影方式によって決まる初期設定形状DFを生成する。ここで、初期設定形状DFを適切に設定することで、回転、移動や変倍を行い表示がなされる際に、表示のズレを抑制することにつながる。なお、平面画像P1は、動画の最初のフレームを示すが、任意のフレームであってもよく、動画中の特定のフレームを示す。この初期設定形状生成部559は、初期設定形状DFを生成するとしているが、この生成は、予め設定している、または、新たに作り出しても良い。つまり、この初期設定形状は、予め定められた画角と射影方式による所定形状、例えば四角形や円形に設定されている場合がある。また、本実施形態のように予め定めているが、他の場合では、平面画像Piの形状に応じて、画角や射影方式並びに形状を生成しても良い。なお、画角については、後述する焦点距離により求められることは、当該技術分野において、周知である。具体的には、平面画像Piのうち、平面画像P1の形状に応じて、まずは画角や射影方式並びに形状から初期設定形状を生成し、後の平面画像P2から平面画像Pnに対する初期設定形状は、この平面画像P1に対して生成された初期設定形状を用いる。なお、この初期設定形状は、表示の際に適切に表示するために設けられるものであり、この初期設定形状と後述する基準形状変換情報とを用いて、合成表示するための位置と形状を定めることができる。
図21(a)に示されているように、初期設定形状DFは、前景動画と同じ射影方式として扱い、ここでは一般的なデジタルカメラで撮影された画像を前景動画として重畳することを考慮し、透視射影方式として予め初期設定形状DFを定めておく。
初期設定形状DFは、図21(a)のように長方形の中心を中心とした円に内接する長方形となるが、ここでは簡単のために長方形の縦、横の辺はそれぞれX軸、Y軸に平行とし、中心を原点とする。対角画角は0度より大きく180度より小さい範囲で任意で決めることが可能であるが、極端な値を指定すると計算の誤差が大きくなる可能性があるため、例えば50度などとする良い。また、前景動画となる動画において、実際に動画を記録した時に利用している記録画像の画角を採用しても良い。
次に、基準形状変換情報算出部568は、平面画像Piから第2の対応領域CA2に射影変換(ホモグラフィ)する場合の情報(パラメータ)を用いて、第2の対応領域CA2に対して初期設定形状DFを変換する情報を算出する。この算出された情報は、基準形状BFを回転及び変倍の少なくとも一方により変換させるための基準形状変換情報である。この回転に関する基準形状変換情報が後述の「基準形状回転情報」であり、変倍に関する基準形状変換情報が後述の「基準形状変倍情報」である。つまり、この基準形状変換情報は、初期設定形状DFの位置や形状を変換させるたに用いられる情報であり、具体的には、回転、変倍、移動の3つを意味する情報が含まれている。
更に、基準形状変換情報算出部568は、射影方式変換によって第2の対応領域CA2の中心点CP2を正距円筒射影方式に変換することで、正距円筒射影画像ECi上で対応する対応点CP3の位置座標を算出する。この位置座標に関する基準形状変換情報が後述の「基準形状移動情報」であり、基準形状BFの位置を移動により変換せるための情報である。
ここで、図21(b)を用いて、基準形状変換情報算出部568の処理について詳細に説明する。図21(b)は周辺領域画像及び第2の対応領域を示した概念図である。
図21(b)では、周辺領域画像PIiと第2の対応領域CA2を示している。図20で示したように、周辺領域画像PIiの垂直画角αは、平面画像Piの対角画角αと同じになるように設定されている。そして、第2の対応領域CA2と、平面画像Piとの間には、第2のホモグラフィ変換という関係がある。ところで、この場合のホモグラフィは、平面を平面に射影する変換となっているため、初期設定形状DFと、第2の対応領域CA2の間にもホモグラフィによる射影関係で表現することを考える。第2の対応領域CA2の4頂点の取り方によっては、初期設定形状DFで表現される平面からホモグラフィで完全に記述できる訳ではなく、最小二乗法等により4点のずれが一番小さくなるような近似が行われる。ホモグラフィの算出方法は、公知の算出方法なので省略するが、例えばOpenCV(Open Source Computer Vision Library)を利用すると、4組の対応点を入力としてホモグラフィ行列を算出する関数があるので利用しても良い。
また、基準形状変換情報算出部568は、算出されたホモグラフィから基準形状BFを変換するための「基準形状回転情報」と「基準形状変倍情報」を算出する。算出されたホモグラフィから回転情報と変倍情報を求める方法としては公知のホモグラフィ分解法を用いることができる。ホモグラフィを回転マトリクスと、並進ベクトルに分解する方法の詳細は例えば、以下の文献に開示されているため、説明を省略する。
〔非特許文献〕
Zhang, Z. “A Flexible New Technique for Camera Calibration.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 22, No. 11, 2000, pp. 1330-1334.
なお、ここでは、基準形状回転情報は、3次元モデル空間の各軸に対するオイラー角によって示されている。また、基準形状移動情報は、正距円筒射影画像EC上の注視点GP1により特定される。
次に、図15に戻って、領域分割部560は、初期設定形状DFの領域を複数の格子領域に分割する。ここで、図21(a)、(c)を用いて、基準形状の領域を複数の格子領域に分割する方法を説明する。図21(c)は、領域分割した基準形状の概念図である。
領域分割部560は、図21(a)に示されているように、基準形状DFの生成で説明したように対角画角と縦横比を与えることで生成された基準形状の4つの頂点から成る長方形を、図21(c)に示されているように、複数の格子領域に分割する。例えば、水平方向に8、垂直方向に8ほど均等分割する。
次に、複数の格子領域の具体的な分割方法について説明する。
まず、基準形状の領域を均等に分割する算出式を示す。2点をA(X1,Y1)、B(X2,Y2)として、その2点間の線分を等間隔にn個に分割する場合、Aからm番目にあたる点Pmの座標は、以下に示す(式13)によって算出される。
Pm = ( X1 + (X2 − X1) ×m / n, Y1 + (Y2 − Y1) × m / n )・・・(式13)
上記の(式13)によって、線分を均等に分割した座標が算出できるため、長方形の上辺、下辺をそれぞれ分割した座標を求め、分割した座標から成る線分をさらに分割すればよい。図21(a)に示されているように、長方形である初期設定形状DFの左上、右上、右下、左下の各座標をそれぞれTL,TR,BR,BLとした場合、線分TL−TRおよび線分BR−BLを均等に8分割した座標を求める。次に、0から8番目まで分割された各座標において、同じ順番に対応する座標同士から成る線分に対し、均等に8分割した座標を求める。これにより、四角形領域を8×8個の小領域に分割するための座標を求めることができる。
次に、図15に戻り、射影方式逆変換部562は、領域分割部560によって領域分割された初期設定形状DFの座標を、背景動画と同じ射影方式である正距円筒射影画像ECiと同じ正距円筒射影方式に逆変換することで、正距円筒射影画像ECiにおいて、基準形状の各格子点の対応点を算出する。
図22(a)は図21(c)で示した初期設定形状DFの各格子点を、正距円筒射影画像ECiの中心(注視点(緯度0,経度0))の位置に配置した時に算出される各格子点を示した概念図である。射影方式の変換の説明において上述したように、射影方式が異なる画像の対応関係は、それぞれを3次元の立体球にマッピングすることで算出することが可能である。図22(a)では、座標の一例として、TLの座標(LO00,00,LA00,00)を示している。
ここで、基準形状BFは透視射影方式として画角と縦横比を与えて生成したが、正距円筒射影画像ECiとの関係を記述するには、基準形状BFをどの位置に配置するかという情報が必要となる。そこで、基準形状BFを正距円筒射影画像ECi上の緯度・経度座標を使って、配置する座標を定義することを考える。これは、すなわち、立体球CSの中心からどこを向いているかという注視点として表すことができる。
図22(b)は図22(a)と同じ基準形状BFを、注視点を変更し、緯度-45度, 経度90度の位置に配置したときの概念図である。正距円筒射影は赤道付近から極方向に向かって水平方向が引き伸ばされた射影方式となっているので基準形状は図のように扇型のような形となる。
図5及び図6で示したように基準形状BFをどこに配置するかの情報を、本実施形態では「基準形状移動情報」と示し、正距円筒射影画像上の緯度・経度座標として表現する。図22(a)は図22(b)で示された基準形状BFを、基準形状移動情報により移動したと捉えることができる。ここで第2の対応領域CA2の中心点CP2を射影方式逆変換することで、正距円筒射影画像ECi上で対応する対応点CP3を求め、この座標位置を「基準形状移動情報」とし、既に算出した「基準形状回転情報」および「基準形状変倍情報」を含んだ「基準形状変換情報」を利用することで、基準形状BFを回転・変倍することと、回転・変倍された基準形状を正距円筒射影上の注視点GP1で示される位置に移動させることが可能となる。つまり、第2の対応領域に対応する第1の射影画像における対応領域が、基準形状変換情報と、基準形状を格子分割することで得られた座標を第一の射影方式に逆変換することで得られる位置パラメータとで表現できるということである。なお、格子点は複数の点の一例である。
ところで、基準形状移動情報は立体球CSの中心にある仮想カメラICをパン(経度方向)、チルト(緯度方向)することにより、仮想カメラICの視線軸を移動することと似ているため、「パン・チルト情報」と示すこともできる。
これにより、後述の重畳部55bが、基準形状変換情報を利用して、平面画像Piの基準形状BFを回転、変倍、及び移動することで、正距円筒射影画像ECiによって作成された全天球画像CEに重畳表示させることができる。以上、基準位置パラメータと、動画フレームカウント値(図15参照)、基準形状変換情報を作成することにより、正距円筒射影画像ECiと平面画像Piの位置関係を算出することができる。
続いて、図15に戻り、重畳表示メタデータ作成部570は、図17に示されているような重畳表示メタデータを作成する。
(重畳表示メタデータ)
ここで、図17を用いて、重畳表示メタデータのデータ構造について説明する。図17は、重畳表示メタデータのデータ構造である。
図17に示されているように、重畳表示メタデータは、正距円筒射影画像情報、平面画像情報、基準形状情報、複数の基準形状変換情報1〜N(N:正数)、及びメタデータ作成情報によって構成されている。
これらのうち、正距円筒射影画像情報は、特殊撮影装置1で撮影された動画データに付随しているメタデータの情報である。正距円筒射影画像情報は、画像識別情報及び付属情報を含んでいる。正距円筒射影画像情報における画像識別情報は、正距円筒射影画像を識別するための画像識別情報である。図17では、正距円筒射影画像情報における画像識別情報の一例として、画像のファイル名が示されているが、画像を一意に識別するための画像IDであってもよい。
また、正距円筒射影画像情報における付属情報は、正距円筒射影画像情報に付属する関連情報である。図17では、付属情報の一例として、特殊撮影装置1で撮影された際に得られた正距円筒射影画像データの姿勢補正情報(Pitch,Yaw,Roll)が示されている。この姿勢補正情報は、特殊撮影装置1の画像記録フォーマットとして規格化されているExif(Exchangeable image file format)で格納されている場合があり、GPano(Google Photo Sphere schema)で提供されている各種フォーマットで格納されている場合もある。全天球画像は、同じ位置で撮影すれば、姿勢が異なっていても360°全方位の画像が撮影できるという特徴があるが、全天球画像CEを表示する場合に、姿勢情報や、どこを画像の中心にするか(注視点)を指定しなければ表示位置が決まらない。そのため、一般的には天頂が撮影者の真上に来るように全天球画像CEを補正して表示する。これにより、水平線が真っ直ぐに補正された自然な表示が可能となる。なお、本実施形態で扱う画像は動画像であるため、動画の各フレームに対して姿勢情報を保存しておき、フレームごとに補正するようにしてもよい。
次に、平面画像情報は、一般撮影装置3で撮影された動画データに基づく情報である。平面画像情報は、画像識別情報及び付属情報を含んでいる。平面画像情報における画像識別情報は、平面画像Pを識別するための画像識別情報である。図17では、画像識別情報の一例として、画像のファイル名が示されているが、画像を識別するための画像IDであってもよい。
また、平面画像情報における付属情報は、平面画像情報に付属する関連情報である。図17では、平面画像情報における付属情報の一例として、35mm換算焦点距離の値が示されている。35mm換算焦点距離の値は、全天球画像CEに平面画像Pを重畳して表示するために必須ではないが、重畳表示を行う場合に表示する画角を決めるための参考情報となるため、例として挙げている。また動画においては、ズーム処理を行うと焦点距離が変化するため、動画のフレームごとに対応する焦点距離を付属情報として記録しても良い。
次に、基準形状情報は、基準形状を構成する情報として、その領域分割情報と、各格子領域の格子点の位置(基準位置パラメータ)を含んでいる。これらのうち、領域分割情報は基準形状BFを複数の格子領域に分割する際の水平(経度)方向の分割数及び垂直(緯度)方向の分割数を示している。
また、基準位置パラメータは、後述する基準形状変換情報1〜Nと共に利用され、基準形状変換情報iにおける動画フレーム特定情報により抽出することができる平面画像Piを格子状の複数の領域に分割した場合の各格子点が、同じく基準形状変換情報iにより全天球動画CEから抽出することができる正距円筒射影画像ECiのどの位置に配置されるかを示す頂点マッピング情報を算出するためのパラメータである。
次に、基準形状変換情報は、基準形状回転情報、基準形状変倍情報、基準形状移動情報、動画フレーム特定情報を含んでいる。基準形状回転情報、基準形状変倍情報、及び基準形状移動情報については、上述した通りである。
動画フレーム特定情報は、作成用動画フレーム抽出部548によって生成され、正距円筒射影画像情報の画像識別情報で特定される動画と、平面画像情報の画像識別情報で特定される動画とから、フレーム画像をそれぞれ抽出するために使用される。基準形状の回転、変倍、移動の各情報は基準形状情報の位置パラメータで示される正距円筒射影画像上に対応する位置を、回転、変倍、又は移動させることで、平面画像Piを格子状の複数の領域に分割した場合の各格子点を、正距円筒射影画像ECi(全天球動画CEから抽出される1つのフレーム画像)のどの位置に配置されるかを示す上述の頂点マッピング情報に変換する。基準形状変換情報算出部568は、動画の全てのフレームに対して基準形状変換情報を算出するのではなく、前景動画を適当にサンプリングした動画のフレーム(平面画像Pi)に対して基準形状変換情報を算出するため、この例では1〜Nまでの基準形状変換情報を持つ構成となっている。また、基準形状変換情報算出部568は、前景動画において、フレーム間の変化が大きいときは、前景動画のフレームを時間軸で細かくサンプリングし、フレーム間の変化が小さいときは、前記第2の動画のフレームを粗くサンプリングする。
次に、メタデータ作成情報は、重畳表示メタデータのバージョンを示すバージョン情報を示している。重畳表示メタデータの構成を、上述した構成とすることで、動画の各フレームに係る画像における重畳位置の算出に必要となるパラメータのデータサイズを少なくし、さらに動画の全てのフレームに対しパラメータを持つのではなく、適当にサンプリングしたフレームに対する基準形状変換情報を記録することで、必要となるパラメータのデータ量を劇的に減らすことができる。そして、そのパラメータはビューア等で行われる重畳表示を行う際に、画像生成処理のための演算処理が従来処理よりも軽減できるようなパラメータセットとして提供することが考慮されている。具体例としては、2D(2-Dimensions)及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリであるOpenGLで取り扱うことができるデータを算出するための演算処理を考慮している。このように、外部プログラムで取り扱うことが可能なメタデータとして記録しているため、外部プログラムが時系列の回転、移動、変倍の基準形状変換情報を読み込み、補間して利用することで連続的な重畳処理がリアルタイムの処理で実現することができるという効果を奏する。
{重畳部の機能構成}
続いて、図16を用い、重畳部55bの機能構成について説明する。重畳部55bは、再生時間管理部571、再生用動画フレーム抽出部572、補間部574、変換位置パラメータ算出部576、形状変換部578、補正パラメータ作成部580、貼付領域作成部582、補正部584、画像作成部586、画像重畳部588、及び射影変換部590を有している。
これらのうち、再生時間管理部571は、基準となる動画再生時間を管理して、現在の時間である再生時刻(又は、動画フレームカウント値)を出力する。例えば30fpsで動画を再生したい場合は、再生時間管理部571は、1秒間に1/30秒ずつ時間を増加させて30回出力する。ここで、背景動画と前景動画の同期について、簡単に例示を用いて説明する。いずれの画像であっても良いが、基準となる画像を特定し、当該基準となる画像から、他方の画像の時間的な差分を用いて、同期を合わせることができる。例えば、背景動画(正距離円筒射影画像EC)の一枚目を基準となる画像として、前景動画(平面画像P)の記録開始が0.5秒早ければ時間的な差分は−0.5秒とし、逆に平面動画の記録開始が0.5秒遅ければ時間の差分は+0.5秒として、メタデータに記録させることもできる。この時間的な差分を元にフレーム数のオフセットを計算し、同期させて再生表示させることが可能となる。なお、再生表示する際に、記録時間が遅い方に合わせて、動画の読み出しをスキップして、同期させて再生表示させたり、背景動画と前景動画の時間的な差分をゼロとなった画像から表示させたりするようにしても良い。
再生用動画フレーム抽出部572は、再生時間管理部571で管理されている時間に基づき、背景動画(正距円筒射影画像EC)となる一方の動画像と、前景動画(平面画像P)となる他方の動画像のそれぞれから、それぞれ指定された時刻に対応するフレームを抽出する。
補間部574は、再生時間管理部571による動画におけるフレーム再生の時間(又は、動画フレームカウント値)に合わせて、メタデータ生成部55aで生成された各基準形状変換情報を読み取り、必要に応じて補間(内挿)することで、動画のフレームの再生時間毎に形状変換パラメータを算出する。この形状変換パラメータの形式は、上述の基準形状変換情報と同じであるが、値は補間結果を示す。補間方法は、再生時間に一番近い前後の基準形状変換情報を読出し、例えば線形補間をして求める。メタデータ作成部55aでは、例えば、作成用動画フレーム抽出部548が1fpsで動画のフレームを抽出することで、重畳表示メタデータ作成部570が1秒間に1つの基準形状変換情報を作成している場合であって、再生時間管理部571が1秒間に30フレームを出力している場合、補間部574は29フレーム分の補間を行う。
変換位置パラメータ算出部576は、補間部574で得られた各形状変換パラメータを用いて、メタデータ生成部55aで生成された基準形状情報(基準位置パラメータ)を変換した結果である変換位置パラメータを算出する。この算出は、動画の各フレームの再生時間毎に行われる。
ところで、変換位置パラメータは算出されたが、このまま重畳表示を行う場合、正距円筒射影画像ECと平面画像Pとで明るさや色味が大きく異なる場合に、不自然な重畳表示となることがある。そのため、以下に示す形状変換部578及び補正パラメータ作成部580は、明るさや色味が大きく異なる場合であっても、不自然な重畳表示となることを防止する役割を果たす。
形状変換部578は、変換位置パラメータ算出部576で算出された変換位置パラメータで特定される正距円筒射影画像EC上の領域を、平面画像Pと同じ矩形の形状に変換することで、第3の対応領域CA3を作成する。
補正パラメータ作成部580は、図26(a)に示されているように、第3の対応領域CA3を、領域分割部560の処理と同様に重畳表示メタデータの領域分割数情報に基づいて分割することで各格子領域LA3を作成する。また、補正パラメータ作成部580は、図26(b)に示されているように、平面画像Pを、領域分割部560の処理と同様に重畳表示メタデータの領域分割数情報に基づいて分割することで各格子領域LA0を作成する。図26(b)では、(8×8=)64個の格子領域LA0が作成されている。更に、補正パラメータ作成部580は、同じ形状に変換後の第3の対応領域CA3における各格子領域LA2’の明るさ値及び色値に対して、各格子領域LA3と同じ形状である平面画像Pの各格子領域LA0の明るさ値及び色値を合わせるための補正パラメータ(補正情報の一例)を作成する。具体的には、補正パラメータ作成部580は、各格子領域LA0の1点を共通に格子点としてもつ4つの格子領域を構成する全ての画素の明るさ値及び色値(R,G,B)の平均値a= (Rave,Gave,Bave)を算出し、各格子領域LA3’の角の1点を共通に格子点としてもつ4つの格子領域を構成する全ての画素の明るさ値及び色値(R’,G’,B’)の平均値a’ = (R’ave,G’ave,B’ave)を算出する。図27には、これら4つの格子領域(LA3a’,LA3b’,LA3c’,LA3d’)と角の1点である共通の格子点LP3’が示されている。なお、上記各格子領域LA0の1点および各格子領域LA3の1点が第3の対応領域CA3および第3の対応領域CA3の4隅の場合、補正パラメータ作成部580は、1つの格子領域から明るさ値および色値の平均値aおよび平均値a’を算出する。また、上記各格子領域LA0の1点および各格子領域LA3の1点が第3の対応領域CA3の外周の点の場合、補正パラメータ作成部566は、内側2つの格子領域から明るさ値および色値の平均値aおよび平均値a’を算出する。そして、補正パラメータは、本実施形態では、平面画像Pの明るさ値及び色値を補正するためのゲインデータとなるため、以下の(式14)に示されているように、平均値a’を平均値aで除算することで、補正パラメータPaを求める。
Pa = a’/ a・・・(式14)
これにより、後述の重畳表示において、補正パラメータが示すゲイン値を、格子領域LA0毎に乗算することで、平面画像Pの色味および明るさが、正距円筒射影画像EC(全天球画像CE)の画素値と近くなり、見た目が違和感なく重畳表示することが可能となる。なお、補正パラメータは、平均値から算出されるだけでなく、平均値に代えて又は平均値に加えて、中央値、最頻値等を使って算出されるようにしてもよい。
また、本実施形態では明るさ値および色値の補正値の算出に画素値(R,G,B)を使用したが、輝度および色差信号であるYUVフォーマットや、JPEGのsYCC(YCbCr)フォーマット等における輝度値、色差値を用いて、同様の方法にて格子領域を構成する全ての画素の輝度値および色差値の平均値を求め、その平均値を除算することにより後述の重畳表示における補正パラメータとしてもよい。なお、RGB値からYUV、sYCC(YCbCr)に変換する方法は公知であるため詳細は省略するが、参考として(式15)を用いて、JPEG圧縮画像のフォーマットJFIF(JPEG file interchange format)形式のRGBからYCbCrへ変換する例を挙げる。
補正部584は、補正パラメータ作成部580で算出された補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なうことで、補正画像Cを作成する。なお、補正部584は、必ずしも明るさや色の補正を行なう必要はない。また、補正パラメータが補正を行なう場合、明るさの補正を行なっても、色の補正を行なわなくてもよい。
一方、貼付領域作成部582は、変換位置パラメータ算出部576によって算出された変換位置パラメータに基づいて、仮想の立体球CSにおいて平面画像Pを貼り付ける領域部分(以下、「部分立体球」という)PSを作成する。
画像作成部586は、部分立体球PSに対して、平面画像P(または、平面画像Pを補正した後の補正画像C)を貼り付けることで、重畳画像Sを作成する。また、画像作成部586は、部分立体球PSの領域に基づいて、マスクデータMを作成する。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する。マスクデータMは、重畳画像Sを全天球画像CEに重畳した場合の境界周辺の明るさ及び色を、内側の重畳画像S側から外側の全天球画像CE側に徐々に近づけるために、マスク周辺の透過度が、内側から外側に向けて徐々に重畳画像S寄りから全天球画像CE寄りに高くなっている。これにより、全天球画像CEに重畳画像Sが重畳されても、極力、重畳されたことが分からないようにすることができる。なお、重畳画像Sを全天球画像CEに重畳した場合の境界周辺の明るさを徐々に変更しない場合には、マスクデータMの作成は、必須ではない。
画像重畳部588は、全天球画像CEに対して重畳画像S及びマスクデータMを重畳する。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。
射影変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tをディスプレイで見ることができるように射影変換する。また、射影変換部590は、射影変換する際に、所定領域Tをディスプレイにおける表示領域の解像度に合わせる処理も行なう。具体的には、所定領域Tの解像度がディスプレイの表示領域の解像度よりも小さい場合には、射影変換部590は、所定領域Tをディスプレイの表示領域に合わせるように拡大する。一方、所定領域Tの解像度がディスプレイの表示領域の解像度よりも大きい場合には、射影変換部590は、所定領域Tをディスプレイの表示領域に合わせるように縮小する。これにより、表示制御部は、ディスプレイの表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示することができる。
<<実施形態の処理又は動作>>
続いて、図18乃至図34を用いて、本実施形態の処理又は動作について説明する。まず、図18を用いて、撮影システムが実行する撮影方法を説明する。図18は、本実施形態に係る撮影方法を示したシーケンス図である。なお、以下では、被写体や風景等の撮影を行なう場合について説明するが、撮影と同時に集音部14によって周囲の音を録音してもよい。
図18に示されているように、スマートフォン5の受付部52は、利用者から連携撮影開始を受け付ける(ステップS11)。この場合、図14(b)に示されているように、表示制御部56が、連携撮影装置設定画面をディスプレイ517に表示させる。この画面には、撮影装置毎に、連携撮影する際のメインの撮影装置を指定するためのラジオボタン、連携撮影する際のサブの撮影装置を指定(選択)するためのチェックボックスが表示されている。更に、撮影装置毎に、撮影装置の装置名及び電波の受信強度が表示されている。そして、利用者が所望の撮影装置をメイン及びサブとして指定(選択)して、「確定」ボタンを押下することで、受付部が連携撮影開始を受け付ける。なお、サブの撮影装置は複数であってもよいため、チェックボックスにして複数の撮影装置を指定(選択)することができるようになっている。
そして、スマートフォン5の近距離通信部58は、一般撮影装置3の近距離通信部38に対して、撮影開始を要求するための撮影開始要求情報を送信する(ステップS12)。また、また、スマートフォン5の近距離通信部58は、特殊撮影装置1の近距離通信部18に対して、撮影開始を要求するための撮影開始要求情報を送信する(ステップS13)。
次に、一般撮影装置3は、撮影を開始する(ステップS14)。この撮影の処理は、撮像部33が被写体や風景等を撮像することで動画を構成するフレームデータである撮影画像データ(ここでは、平面画像データ)を取得し、記憶・読出部39が記憶部3000に撮影画像データを記憶するまでの処理である。そして、一般撮影装置3の近距離通信部38は、スマートフォン5に対して、ステップS14によって得られた平面画像データを送信する(ステップS15)。この際、送信される平面画像データを識別するための画像識別情報、及び付属情報も送信される。これにより、スマートフォン5の近距離通信部58は、平面画像データ、画像識別情報、及び付属情報を受信する。
一方、特殊撮影装置1は、撮影を開始する(ステップS16)。この撮影の処理は、撮像部13が被写体や風景等を撮影することで動画を構成するフレームデータである撮影画像データ(図3(a),(b)に示されているような2つの半球画像データ)を生成し、画像・音処理部15が、2つの半球画像データに基づいて、図3(c)に示されているような単一の正距円筒射影画像データを作成して、記憶・読出部19が記憶部1000に正距円筒射影画像データを記憶するまでの処理である。そして、特殊撮影装置1の近距離通信部18は、スマートフォン5に対して、ステップS16によって得られた正距円筒射影画像データを送信する(ステップS17)。この際、送信される正距円筒射影画像データを識別するための画像識別情報、及び付属情報も送信される。これにより、スマートフォン5の近距離通信部58は、正距円筒射影画像データ、画像識別情報、及び付属情報を受信する。なお、正距円筒射影画像データは、特殊撮影装置1で作成されるのではなく、スマートフォン5で作成されるようにしてもよい。この場合、特殊撮影装置1からスマートフォン5には、2つの半球画像データ、画像識別情報、及び付属情報が送信される。
次に、スマートフォン5の記憶・読出部59は、ステップS15によって受信された平面画像データの電子ファイルと、及びステップS17によって受信された正距円筒射影画像データの電子ファイルを同一の電子フォルダに格納して、記憶部5000に記憶する(ステップS18)。
次に、スマートフォン5の画像・音処理部55は、低精細画像である全天球画像CEの一部の領域に高精細画像である平面画像Pを重畳して表示する際に利用する、重畳表示用メタデータを作成する(ステップS19)。この際、記憶・読出部59が、記憶部5000に重畳表示用メタデータを記憶する。
ここで、主に、図19乃至図22を用いて、重畳表示メタデータの作成処理について詳細に説明する。なお、一般撮影装置3と特殊撮影装置1の撮像素子の解像度が、たとえ同じであっても、特殊撮影装置1の撮像素子は360°全天球画像CEの元になる正距円筒射影画像を全て網羅しなければならないため、撮影画像における一定領域あたりの精細度が低くなる。
{重畳表示メタデータの作成処理}
まず、低精細な正距円筒射影画像ECによって作成される全天球画像CEに対して、高精細な平面画像Pを重畳してディスプレイ517に表示するための重畳表示メタデータの作成処理について説明する。
抽出部550は、正距円筒射影方式によって得られた長方形の正距円筒射影画像ECにおける複数の特徴点fp1、及び透視射影方式によって得られた長方形の平面画像Pにおける複数の特徴点fp2を抽出する(ステップS110)。
次に、第1の対応領域算出部552は、第1のホモグラフィ変換によって、正距円筒射影画像ECにおける複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2の特徴量fv2との類似度に基づき、図19に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する(ステップS120)。より具体的には、第1の対応領域算出部552は、算出した正距円筒射影画像ECの複数の特徴点fp1の特徴量fv1と、平面画像Pにおける複数の特徴点fp2の特徴量fv2の類似度に基づき画像間の対応点を算出し、正距円筒射影画像ECにおいて、平面画像Pに対応するホモグラフィを求めることで得られる第1のホモグラフィ変換によって、図19に示されているように、正距円筒射影画像ECにおいて、平面画像Pに対応する四角形の第1の対応領域CA1を算出する。この処理は、正距円筒射影画像ECに対して射影方式が異なる平面画像Pを正確に対応付けることができないが、ひとまず大まかに対応位置を推定するための処理(仮決め処理)である。
次に、注視点特定部554は、平面画像Pの中心点CP1が第1のホモグラフィ変換後に位置する正距円筒射影画像EC上の点(注視点GP1)を特定する(ステップS130)。
次に、射影方式変換部556は、図20に示されているように、周辺領域画像PIの垂直画角αが平面画像Pの対角画角αと同じになるようにすることで、結果的に周辺領域画像PIが作成できるように、正距円筒射影画像EC内で注視点GP1を中心とした周辺領域PAを、平面画像Pと同じ透視射影方式に変換する(ステップS140)。
次に、抽出部550は、射影方式変換部556によって得られた周辺領域画像PIにおける複数の特徴点fp3を抽出する(ステップS150)。
次に、第2の対応領域算出部558は、第2のホモグラフィ変換によって、平面画像Pにおける複数の特徴点fp2の特徴量fv2と、周辺領域画像PIにおける複数の特徴点fp3の特徴量fv3との類似度に基づき、周辺領域画像PIにおいて、平面画像Pに対応する四角形の第2の対応領域CA2を算出する(ステップS160)。なお、平面画像Pは、例えば4000万画素の高精細な画像であるため、予め適切な大きさにリサイズしておく。
次に、初期設定形状生成部559は、図21(a)に示されているように、長方形の対角画角βと、長方形の縦横比を定めることで、初期設定形状DFを生成する(ステップS170)。
次に、領域分割部560は、図21(c)に示されているように、初期設定形状DFの領域を複数の格子領域に分割する(ステップS180)。
次に、射影方式逆変換部562は、領域分割部560によって領域分割された初期設定形状DFの座標を、背景動画と同じ射影方式である正距円筒射影画像ECiと同じ正距円筒射影方式に逆変換することで、正距円筒射影画像ECiにおいて、基準形状の各格子点の対応点を算出する(ステップS190)。この射影方式逆変換部562の処理により、各格子領域の各格子点の座標を示す基準形状情報(基準位置パラメータ)が作成される。
一方、基準形状変換情報算出部568は、基準形状BFを回転、変倍(拡大若しくは縮小)、又は移動することにより基準形状BFを変換するための基準形状変換情報を算出する(ステップS200)。
最後に、重畳表示メタデータ作成部570は、特殊撮影装置1から取得した正距円筒射影画像情報、一般撮影装置3から取得した平面画像情報、上記ステップS190で作成された基準形状情報、ステップS200で算出された各基準形状変換情報、及び作成用動画フレーム抽出部548から出力された動画フレームカウント値に基づいて、重畳表示メタデータを作成する(ステップS210)。この重畳表示メタデータは、記憶・読出部59によって、記憶部5000に記憶される。
以上より、図18に示されているステップS19の処理が終了する。そして、記憶・読出部59及び表示制御部56は、重畳表示メタデータを用いて、重畳の処理を行なう(ステップS20)。
{重畳の処理}
続いて、図23乃至図34を用いて、重畳の処理について詳細に説明する。図23及び図28は、重畳表示の処理の課程における画像の概念図である。図23は、重畳の処理の前半部分である位置パラメータ及び補正パラメータを算出する処理を示している。図28は、重畳の処理の後半部分である全天球画像CEに平面画像Pを重畳する処理を示している。
まず、記憶・読出部(取得部)が、予め、記憶部5000から、基準形状情報及び各基準形状変換情報を読み出して取得しておく。また、記憶・読出部(取得部)が、動画再生の時間経過に合わせて、正距円筒射影方式によって得られた動画のフレームに係る正距円筒射影画像ECのデータ、透視射影方式によって得られた動画のフレームに係る平面画像Pのデータを読み出して取得しておく。
そして、補間部574は、再生時間管理部571による動画再生の時間経過に合わせて、メタデータ作成部55aで生成された各基準形状変換情報を読み取り、必要に応じて補間することで、動画のフレームの再生時間毎に形状変換パラメータを算出する(S270)。
ここで、図24を用いて、形状変換パラメータについて詳細に説明する。図24は、補間方法に関する説明を行う。本実施形態において基準形状変換情報は、基準形状変倍情報を除いて全て角度で表されている。ホモグラフィ行列等から回転角を求めると、図24(a)に示されているように、角度の値は例えば±180度の範囲となる。補間の際に±180度の境界をまたぐと、意図しない動作になる場合がある。例えば、動画のフレームが1秒間隔で130度、150度、170度、−170度、−150度、−130度と設定されていた場合を考える。図24(b)で示すように130度から−130度に向けて反時計周りで等速度に動いていると考えるのが普通である。しかしながら、この動画のフレームを0.5秒間隔で補間をすると、170と−170の単純な補間結果は0となり、結果として、図24(c)に示されているように、突然逆回りに大きく動くこととなる。そこで、補間部574は、補間するフレームデータ同士でどちら回りが近いかを判断して補間を実行する。例えば、図24(d)のように、基準位置パラメータで示される基準形状を130度(A点)から−130度(B点)に移動又は回転させる場合、反時計周りが近くなり±180度の境界を跨ぐため、この場合はA点と(B点+360度)で補間を行う。図24(e)のように、130度(C点)から−20度(D点)に移動又は回転させる場合は、時計回りが近くなり、±180度の境界をまたがないためC点とD点で単純に補間を行う。図24(f)のように、−130度(E点)から130度(F点)に移動又は回転させる場合、時計周りが近くなり、±180度の境界を跨ぐためE点と(D点−360度)で補間すればよい。このような方法で補間することで、移動又は回転の速さに対して動画のフレームの設定間隔が大きい場合等を除き、おおむね意図通りの動きになる。
続いて、図23に戻り、変換位置パラメータ算出部576は、メタデータ生成部55aで生成された基準形状情報(基準位置パラメータ)、及び補間部574で得られた基準形状変換情報を用いて、この時間の変換位置パラメータを算出する(ステップS280)。
ここで、図25を用いて、変換位置パラメータの算出方法について説明する。図25は、変換位置パラメータ算出部における処理の流れを示した三次元の概念図である。
図25(a)は、基準位置パラメータに基づき、3次元の立体球CS上の座標(部分立体球PS)を作成した図である。ここでも、上記(式4)の考えが用いられる。
次に、変換位置パラメータ算出部576は、図25(b)に示されているように、部分立体球PSの4つ角のうちの3点で構成される平面を求め、その平面に対して各点を立体球CSの中心を視点として透視射影する。3点の選択は任意で良い。3次元上で3点を通る平面の式は公知の技術なので割愛する。また、部分立体球PSから、平面への射影は部分立体球PS上の点P(a,b,c)とすると原点(視点)から点Pへの直線の式は媒介変数tを用いて(x,y,z)=t(a,b,c)と表される。平面と直線の交点を求めればよい。
次に、変換位置パラメータ算出部576は、図25(c)に示されているように、平面の中心が原点に来るように各点を平行移動する。平面の中心は例えば4隅の点の位置座標の平均としてその点を原点に移動するベクトルを求め、各点に対してそのベクトルを加算する。
次に、変換位置パラメータ算出部576は、図25(d)に示されているように、図25(c)平面の各点に対して補間部574で取得された情報(補間後の基準形状変換情報)のうち回転情報と変倍情報を作用させる。先ほど原点に移動したのは局所座標で回転及び変倍情報を作用させるためである。
次に、変換位置パラメータ算出部576は、図25(e)に示されているように、上記原点へ平行移動したベクトルと逆のベクトルを各点に加算して元の位置に戻す。
次に、変換位置パラメータ算出部576は、図25(f)に示されているように、平面の各点を立体球CSに戻す。立体球CSへ戻す方法は、例えば、平面状のある点をQ(d,e,f)とする。これらの点を半径1の球上に射影するためには原点から点Qまでのベクトルの長が1になればよい。
次に、変換位置パラメータ算出部576は、図25(e)に示されているように、立体球CS上に射影された各点に対して補間部574で取得された基準形状変換情報のうち残りの基準形状移動情報を作用させる。基準形状移動情報は原点を中心とした回転情報になるので、各点の(x,y,z)座標に回転行列を掛ければよい。基準位置パラメータを作用させた3次元座標から、再度、正距円筒射影画像ECにおける座標に戻すことにより、変換位置パラメータが算出される。なお、今回は、一度、正距円筒射影画像ECにおける座標に戻した後、部分立体球PSの作成を行う例を示したが、基準形状移動情報を作用させたものをそのまま部分立体球PSとしてもよい。
続いて、図23に戻り、形状変換部578は、変換位置パラメータ算出部576で算出された変換位置パラメータで特定される正距円筒射影画像EC上の領域を、平面画像Pと同じ矩形の形状に変換することで、第3の対応領域CA3を作成する(ステップS290)。そして、補正パラメータ作成部580は、第3の対応領域CA3と、再生用動画フレーム抽出部572から抽出された平面画像Pとを比較して、補正パラメータの算出を行うことで、補正パラメータを作成する(ステップS300)。
続いて、図28を用いて、まず、図13に示されている記憶・読出部59(取得部)が、予め、記憶部5000から、正距円筒射影方式によって得られた正距円筒射影画像ECのデータ、透視射影方式によって得られた平面画像Pのデータ、及び変換位置パラメータを算出しておく。そして、再生フレーム選択部572が、映像のフレームである正距円筒射影画像ECのデータ及び平面画像Pのデータを選択する。
次に、貼付領域作成部582は、図28に示されているように、変換位置パラメータによって基準形状パラメータを変換することで、仮想の立体球CSにおいて、部分立体球PSを作成する(ステップS310)。
次に、補正部584は、補正パラメータ作成部580で作成された補正パラメータに基づいて、平面画像Pの明るさ値及び色値を、正距円筒射影画像ECの明るさ値及び色値に合わせる補正を行なう(ステップS320)。以降、補正後の平面画像Pは、「補正画像C」という。
次に、画像作成部586は、部分立体球PSに対して、補正画像Cを貼り付けることで、重畳画像Sを作成する(ステップS330)。また、画像作成部586は、部分立体球PSに基づいて、マスクデータMを作成する(ステップS340)。更に、画像作成部586は、立体球CSに対して、正距円筒射影画像ECを貼り付けることで全天球画像CEを作成する(ステップS350)。そして、画像重畳部588は、全天球画像CEに対して、重畳画像S及びマスクデータMを重畳する(ステップS360)。これにより、境目が目立たないように高精細の重畳画像Sが重畳された低精細の全天球画像CEが完成する。
次に、射影変換部590は、図7に示されているように、予め定められた仮想カメラICの視線方向(所定領域Tの中心点CP)と所定領域Tの画角αに基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域Tをディスプレイ517で見ることができるように射影変換する(ステップS370)。この際、射影変換部590は、所定領域Tをディスプレイ517における表示領域の解像度に合わせる処理も行なう。これにより、表示制御部56は、ディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qの表示の処理を行なうことができる(ステップS24)。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P’である重畳画像Sが含まれている。
続いて、図29乃至図33を用いて、重畳表示された状態について詳細に説明する。図29は、全天球画像に平面画像を重畳した場合の二次元の概念図である。ここでは、図5に対して、平面画像Pを重畳している場合を示している。図29に示されているように、高精細な重畳画像Sは、立体球CSに張り付けられた低精細な全天球画像CEに対し、変換位置パラメータに従って、立体球CSの内側に重畳されている。
図30は、全天球画像に平面画像を重畳した場合の三次元の概念図である。図30では、立体球CSに全天球画像CE及び重畳画像Sが貼り付けられ、重畳画像Sを含む画像が所定領域画像Qとなっている状態を表している。
図31は、本実施形態の位置パラメータを用いずに、全天球画像に平面画像を重畳した場合の二次元の概念図である。図32は、本実施形態の位置パラメータを用いて、全天球画像に平面画像を重畳した場合の二次元の概念図である。
図31(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体po1は、全天球画像CE上で像po2として表され、重畳画像S上で像po3として表されている。図31(a)に示されているように、像po2及び像po3は、仮想カメラICと被写体po1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図31(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると、仮想カメラICと被写体po1とを結ぶ直線上に、像po2は位置しているが、像po3はやや内側に位置している。このため、仮想カメラICと被写体po1とを結ぶ直線上における重畳画像S上の像を像po3’とすると、全天球画像CEと重畳画像Sに、像po3と像po3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまう。
これに対して、本実施形態では、複数の格子領域によって示された位置パラメータを用いているため、図32(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図32(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図32(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像po2及び像po3は、仮想カメラICと被写体po1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。
図33(a)は重畳表示しない場合のワイド画像の表示例、図33(b)は重畳表示しない場合のテレ画像の表示例、図33(c)は重畳表示する場合のワイド画像の表示例、図33(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。
図33(a)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示しない場合、図33(a)における波線で示される領域まで拡大表示すると、図33(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図33(c)に示されているように、全天球画像CEに対して平面画像Pを重畳して表示する場合、図33(c)における波線で示される領域まで拡大表示すると、図33(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な平面画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な平面画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。
また、本実施形態のように、動画のフレームデータである全天球画像CE内に動画のフレームデータである平面画像Pが重畳されている場合には、図34に示されているような見え方になる。図34は、動画の所定領域画像内に動画の平面画像が表示されている例を示す図である。
ディスプレイ517上には、図34(a)から順に、図34(b)、図34(c)、及び図34(d)で時系列に、所定領域画像Q1,Q2,Q3,Q4は、それぞれ平面画像P1,P2,P3,P4が含まれた状態で表示される。所定領域画像Q1,Q2,Q3,Q4は、低精細の画像であるが、平面画像P1,P2,P3,P4は高精細であるため、平面画像P1,P2,P3,P4を拡大表示しても、利用者は鮮明な画像を見ることができる。
また、背景画像(正距円筒射影画像)及び前景画像(平面画像)が静止画の場合、前景画像における複数の位置(点)、輝度及び色を補正する補正パラメータ(補正情報)を、背景画像の複数の位置(点)に対応付けて記憶してもよい。しかし、この方式をそのまま動画像に適応すると重畳表示メタデータのデータ量が重畳する動画の記録時間に比例して大きくなってしまうという課題が生じる。つまり、背景画像に対し、ある時刻における前景画像の背景画像に対する重畳位置と、別のある時刻における前景画像の背景画像に対する重畳位置は静止画と異なり変化することがあるため、各時刻の前景画像となる動画像のフレーム単位で重畳位置を記録することが必要となる。そのため、動画のフレーム枚数分だけ重畳位置を示す位置情報が必要となり、重畳表示メタデータが大量の位置情報を保持する必要がある。これに伴い、重畳部55bは、重畳表示メタデータを用いて背景動画及び前景画像の一フレーム毎に重畳の処理を行う必要があるため、処理負荷が非常に大きくなってしまう。
これに対して、本実施形態では、図22(a)に示しているように、基準位置パラメータによって背景画像上に基準形状BFを定め、基準形状BFを3次元モデル空間上で、回転、変倍、移動させるための基準形状変換情報を用いることで、動画における各フレームにおいて重畳位置の算出に必要となる重畳表示メタデータのデータサイズを小さくし、さらに動画像の全てのフレームに対しパラメータを持つのではなく、適当にサンプリングした動画のフレームに対する基準位置パラメータを記録することで、必要となるパラメータのデータ量を減らすことができる。さらに、そのパラメータはビューア等で行われる重畳表示を行う際に、重畳処理のための演算処理が従来処理よりも軽減できるようなパラメータセットとして提供することを考慮している。具体例としては、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリであるOpenGLで取り扱うことができるデータを算出するための演算処理を考慮している。このようにして、外部プログラムで取り扱うことが可能なメタデータとして記録しているため、外部プログラムの実行により実現される補間部574が、時系列の回転、変倍、移動を示す基準形状変換情報を読み込み、補間して利用することで連続的な重畳処理がリアルタイムの処理で実現できる。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、射影方式が異なる一方の画像に他方の画像を合わせても、見えづらさを抑制することができるという効果を奏する。また、射影方式が異なる一方の画像(例えば、正距円筒射影画像EC)に他方の画像(例えば、平面画像P)を重畳しても、画像のずれを抑制することができるという効果を奏する。
また、図33(c)に示されているように、低精細の全天球画像CEの一部である所定領域画像の一部の領域に、高精細の平面画像Pを重畳して表示することができるため、全天球画像と平面画像の画像が合い、平面画像が全天球画像に上手く溶け込むことができるという効果を奏する。
更に、本実施形態によれば、基準形状情報で示される基準形状BFを定め、基準形状BFを3次元モデル空間上で、回転、変倍、移動させるための基準形状変換情報を用いることで、射影方式が異なる複数の動画像において、一方の動画像の各フレームに他方の動画像の各フレームを重畳するための位置パラメータの算出に必要となるパラメータのデータサイズをできるだけ少なくすることができる。また、動画像の全てのフレームに対しパラメータを持つのではなく、適当にサンプリングした任意のフレームに対するパラメータを記録することで、必要となるパラメータのデータ量を減らすことができる。
〔第2の実施形態〕
続いて、図35乃至図40を用いて、本発明の第2の実施形態について説明する。
<撮影システムの概略>
まずは、図35を用いて、本実施形態の撮影システムの構成の概略について説明する。図35は、本実施形態の撮影システムの構成の概略図である。
図35に示されているように、本実施形態の撮影システムは、第1の実施形態に係る各構成に対して、更に画像処理サーバ7が追加されている。第1の実施形態と同一の構成は、同一の符号を付して、その説明を省略する。スマートフォン5と画像処理サーバ7は、インターネットやイントラネット等の通信ネットワーク100を介して、画像処理サーバ7と相互通信することができる。
第1の実施形態では、スマートフォン5が、重畳表示メタデータの作成や画像の重畳の処理を行なっているのに対して、本実施形態では、画像処理サーバ7がこれらの処理を行なう。
なお、本実施形態のスマートフォン5は、通信端末の一例となり、画像処理サーバが画像処理装置の一例となる。
画像処理サーバ7は、サーバコンピュータであり、複数台のサーバコンピュータで分散して画像処理を行なう場合も含まれる。
<<実施形態のハードウェア構成>>
次に、図36を用いて、本実施形態の画像処理サーバ7のハードウェア構成を詳細に説明する。図36は、画像処理サーバのハードウェア構成図である。なお、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5のハードウェア構成は、第1の実施形態と同様であるため、それらの説明を省略する。
<画像処理サーバのハードウェア構成>
図36は、画像処理サーバのハードウェア構成図である。画像処理サーバ7は、コンピュータによって構築されており、図6に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)705、記録メディア706、メディアI/F707、ディスプレイ708、ネットワークI/F709、キーボード711、マウス712、CD−RWドライブ714、及び、バスライン710を備えている。なお、画像処理サーバ7は、サーバとして機能するため、キーボード711やマウス712等の入力装置や、ディスプレイ708等の出力装置はなくてもよい。
これらのうち、CPU701は、画像処理サーバ7全体の動作を制御する。ROM702は、CPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDD705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F709は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。CD−RWドライブ714は、着脱可能な記録媒体の一例としてのCD−RW(Compact Disc-ReWritable)713に対する各種データの読み出し等を制御する。
また、画像処理サーバ7は、バスライン710を備えている。バスライン710は、図36に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
<<実施形態の機能構成>>
次に、図37及び図39を用いて、本実施形態の機能構成について説明する。図37は、本実施形態に係る撮影システムの機能ブロック図である。なお、本実施形態の特殊撮影装置1、一般撮影装置3及びスマートフォン5の機能構成は、第1の実施形態と同様であるため、それらの説明を省略する。本実施形態の場合、スマートフォン5の画像・音処理部55は、図15に示されている各機能構成を有していてもよいし、有していなくてもよい。
<画像処理サーバの機能構成>
図37に示されているように、画像処理サーバ7は、遠距離通信部71、受付部72、画像・音処理部75、表示制御部76、判断部77、及び記憶・読出部79を有している。これら各部は、図36に示されている各構成要素のいずれかが、HD704からRAM703上に展開された画像処理サーバ7用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
また、画像処理サーバ7は、図36に示されているROM702、RAM703、及びHD704によって構築される記憶部7000を有している。
(画像処理サーバの各機能構成)
画像処理サーバ7の遠距離通信部71は、主に、図36に示されているネットワークI/F707及びCPU701の処理によって実現され、通信ネットワークを介して、他の装置(例えば、他のサーバ、スマートフォン)との間で各種データ(または情報)の送受信を行う。
受付部72は、主にキーボード711、マウス712、及びCPU701の処理によって実現され、利用者から各種の選択又は入力を受け付ける。
画像・音処理部75は、主にCPU701からの命令によって実現され、スマートフォン5から送られて来た各種データに対して、各種処理を行なう。
表示制御部76は、主にCPU701の処理によって実現され、第1の実施形態の表示制御部56と異なり、スマートフォン5のディスプレイ517に平面画像Pを表示させるための所定領域画像Qのデータを作成する。また、表示制御部76は、画像・音処理部75によって作成された重畳表示メタデータを利用して、平面画像Pの各格子領域LA0を、位置パラメータで示された位置、並びに補正パラメータで示された明るさ値及び色値に合わせることで、全天球画像CEに平面画像Pを重畳して表示させるためのデータを作成する。
判断部77は、図36に示されているCPU701の処理によって実現され、各種判断を行なう。
記憶・読出部79は、主に、図36に示されているCPU701の処理によって実現され、記憶部7000に、重畳表示メタデータ等の各種データ(または情報)を記憶したり、記憶部7000から重畳表示メタデータ等の各種データ(または情報)を読み出したりする。また、記憶・読出部79は、記憶部7000から各種データを取得する取得部の役割を果たす。
(画像・音処理部の詳細な各機能構成)
ここで、図39を用いて、画像・音処理部75の各機能構成について詳細に説明する。図39は、画像・音処理部の詳細な機能ブロック図である。
画像・音処理部75は、大きく分けて、エンコードを行なうメタデータ作成部75aとデコードを行なう重畳部75bを有している。メタデータ作成部75aは、図40に示されている後述のステップS121の処理を実行する。また、重畳部75bは、図18に示されている後述のステップS122の処理を実行する。
{メタデータ作成部の各機能構成}
まずは、メタデータ作成部75aの各機能構成について説明する。メタデータ作成部75aは、動画フレーム抽出部748、抽出部750、第1の対応領域算出部752、注視点特定部754、射影方式変換部756、第2の対応領域算出部758、初期設定形状生成部759、領域分割部760、射影方式逆変換部762、基準形状変換情報算出部768、及び重畳表示メタデータ作成部770を有している。これらは、それぞれ第1の実施形態における、作成用動画フレーム抽出部548、抽出部550、第1の対応領域算出部552、注視点特定部554、射影方式変換部556、第2の対応領域算出部558、初期設定形状生成部559、領域分割部560、射影方式逆変換部562、基準形状変換情報算出部568、及び重畳表示メタデータ作成部570と同様の機能を有するため、これらの説明は省略する。
{重畳部の機能構成}
続いて、重畳部75bの機能構成について説明する。重畳部75bは、再生時間管理部771、再生動画フレーム選択部772、補間部774、位置パラメータ算出部776、形状変換部778、補正パラメータ作成部780、貼付領域作成部782、補正部784、画像作成部786、画像重畳部788、及び射影変換部790を有している。これらは、それぞれ第1の実施形態における、再生時間管理部571、再生用動画フレーム抽出部572、補間部574、変位位置パラメータ算出部576、形状変換部578、補正パラメータ作成部580、貼付領域作成部582、補正部584、画像作成部586、画像重畳部588、及び射影変換部590と同様の機能を有するため、これらの説明は省略する。
<<実施形態の処理又は動作>>
続いて、図40を用いて、本実施形態の処理又は動作について説明する。図40を用いて、撮影システムが実行する撮影方法を説明する。図40は、本実施形態に係る撮影方法を示したシーケンス図である。なお、ステップS111〜S118の処理は、第1の実施形態のステップS11〜S18と同様の処理であるため、これらの説明を省略する。
スマートフォン5では、遠距離通信部51が通信ネットワーク100を介して画像処理サーバ7に、射影方式が異なる一方の画像に他方の画像を重畳するための重畳要求を示す重畳要求情報を送信する(ステップS119)。この重畳要求情報には、記憶部5000に記憶された電子フォルダ内のデータ(平面画像データ、正距円筒射影画像データ)を送信する。これにより、画像処理サーバ7の送受信部71は、電子フォルダ内のデータを受信する。
次に、画像処理サーバ7では、記憶・読出部79が、記憶部7000に、ステップS119で受信された電子フォルダ内のデータを記憶する(ステップS120)。そして、図38に示されているメタデータ作成部75aが、重畳表示用メタデータの作成を行なう(ステップS121)。更に、重畳部75bが、重畳の処理を行なう(ステップS122)。ステップS121,S122の処理は、それぞれステップS21,S22の処理と同様の内容であるため、これらの説明を省略する。
次に、表示制御部76は、スマートフォン5のディスプレイ517の表示領域の全体に亘って、所定領域Tを示す所定領域画像Qを表示させる所定領域画像Qのデータを作成する。ここでは、所定領域画像Q内に、平面画像Pが重畳された状態の平面画像P’である重畳画像Sが含まれている。遠距離通信部51は、スマートフォン5に対して、表示制御部76によって作成された所定領域画像Qのデータを送信する(ステップS123)。これにより、スマートフォンの遠距離通信部51は、所定領域画像Qのデータを受信する。
次に、スマートフォン5では、表示制御部56が、ディスプレイ517上に、重畳画像Sが含まれた所定領域画像Qを表示させる(ステップS124)。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、上記第1の実施形態と同様の効果を奏する。
また、本実施形態では、連携撮影の処理はスマートフォン5で行い、重畳表示用メタデータの作成及び重畳の処理は画像処理サーバ7で行なうため、スマートフォン5の処理能力が比較的低い場合であっても、画像のずれを抑制することができるという効果を奏する。
〔補足〕
上記各実施形態では、図13に示されているように、スマートフォン5が、正距円筒射影画像データ、平面画像データ、及び重畳表示パラメータデータを有しているが、これに限るものではない。例えば、インターネット等の通信ネットワークを介して通信可能な管理サーバが、正距円筒射影画像データ、平面画像データ、及び重畳表示パラメータデータのうち少なくとも1つを記憶してもよい。
また、上記各本実施形態では、全天球画像CEに平面画像Pが重畳されているが、これに限るものではない。例えば、全天球画像CEの一部の画像を平面画像Pに置き換えてもよいし、全天球画像CEの一部の画像を削除して、この削除した部分に平面画像Pを嵌め込んでもよい。
また、上記第2の実施形態では、重畳の処理が画像処理サーバ7で行なわれているが(ステップS45参照)、これに限るものではない。例えば、画像処理サーバ7からスマートフォン5に重畳表示用メタデータを送信し、スマートフォン5側で重畳の処理及び表示の処理を行なってもよい。この場合、画像処理サーバ7では、図39に示されているメタデータ作成部75aが重畳表示用メタデータの作成を行なう。一方、スマートフォン5では、図15に示されている重畳部55bが重畳の処理を行い、図13に示されている表示制御部56が表示の処理を行なう。
また、上記では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、上記重畳画像は、合成画像の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部588,788は、画像合成部の一例である。
また、正距円筒射影画像ECと平面画像Pは、両方とも静止画の場合、両方とも動画のフレームの場合、一方が静止画で他方が動画のフレームの場合のいずれであってもよい。
図13、図15、図16、図36、図37、図38に示されている各機能構成は、ソフトウェア機能ユニットの形で実現し、且つ、独立製品として販売または使用する場合に、コンピュータ読取り可能な記憶媒体に記憶することができる。この場合に、本実施形態の技術方案は、本質的、または従来技術に貢献する部分若しくは上記技術方案の部分はソフトウェア製品の形で表現される。上記コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、或はネットワークデバイスなど)に上記各実施形態にかかる上記方法の全部或は一部のステップを実行させる複数の指令を含む。なお、上述の記憶媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。
また、上記実施形態にかかる方法は、プロセッサに適用され、またはプロセッサによって実現される。プロセッサは信号を処理する能力を持つ集積回路基板である。上記各実施形態の方法の各ステップはプロセッサにおけるハードウェアである集積論理回路又はソフトウェア形式の指令によって実現される。上記プロセッサ42は汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、既製プログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア部品であり、上記各実施形態に開示される各方法、ステップ及び論理ボックスを実現又は実行可能なものである。汎用処理器はマイクロプロセッサ又は任意の一般処理器などである。上記各実施形態にかかる方法の各ステップは、ハードウェアであるデコーダにより実行されることで実現されてもよく、または、デコーダにお行けるハードウェアとソフトウェアとの組み合わせによって実現されても良い。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読出し専用メモリ、プログラマブル読出し専用メモリ、あるいは電気的消去可能なプログラマブルメモリ、レジスタなど、本分野で成熟した記憶媒体に記憶される。このソフトウェアが記憶される記憶媒体を備えるメモリから、プロセッサは情報を読み取り、ハードウェアに合わせて上記方法のステップを実現させる。
以上に説明した実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、またはそれらの組み合わせで実現される。その中に、ハードウェアの実現に関して、処理ユニットは一つまたは複数の専用集積回路(ASIC)、デジタル信号処理プロセッサ(DSP)、デジタル信号プロセッサ(DSPD)、プログラム可能論理回路 (PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実行する他の電子ユニット或はその組合せにより実現される。また、ソフトウェアの実現に関しては、上述した機能を実現するモジュール(たとえばプロセス、関数など)により上記技術が実現される。ソフトウェアコードは、メモリに保存され、プロセッサによって実行される。なお、メモリはプロセッサの内部または外部で実現される。
1 特殊撮影装置(第1の撮影装置の一例)
3 一般撮影装置(第2の撮影装置の一例)
5 スマートフォン(画像処理装置の一例)
7 画像処理サーバ(画像処理装置の一例)
51 送受信部
52 受付部
55a メタデータ作成部
55b 重畳部
56 表示制御部
58 近距離通信部
59 記憶・読出部(取得手段の一例)
72 受付部
75 画像・音処理部
75a メタデータ作成部
75b 重畳部
76 表示制御部
78 近距離通信部
79 記憶・読出部(取得手段の一例)
517 ディスプレイ
548 (メタデータ)作成用動画フレーム抽出部
550 抽出部(抽出手段の一例)
552 第1の対応領域算出部(第1の対応領域算出手段の一例)
554 注視点特定部(注視点特定手段の一例)
556 射影方式変換部(射影方式変換手段の一例)
558 第2の対応領域算出部(対応領域算出手段の一例/第2の対応領域算出手段の一例)
559 初期設定形状生成部(初期設定形状生成手段の一例)
560 領域分割部(領域分割手段の一例)
562 射影方式逆変換部(射影方式逆変換手段の一例)
568 基準形状変換情報算出部(基準形状変換情報算出手段の一例)
570 重畳表示メタデータ作成部(位置算出手段の一例)
571 再生時間管理部
572 再生用動画フレーム抽出部
574 補間部(補間手段の一例)
575 変換位置パラメータ算出部
578 形状変換部
580 補正パラメータ作成部
582 添付領域作成部(添付領域作成手段の一例)
584 補正部(補正手段の一例)
586 画像作成部(画像作成手段の一例)
588 画像重畳部(画像重畳手段の一例)
590 射影変換部(射影変換手段の一例)
750 抽出部(抽出手段の一例)
752 第1の対応領域算出部(第1の対応領域算出手段の一例)
754 注視点特定部(注視点特定手段の一例)
756 射影方式変換部(射影方式変換手段の一例)
758 第2の対応領域算出部(対応領域算出手段の一例/第2の対応領域算出手段の一例)
760 領域分割部(領域分割手段の一例)
762 射影方式逆変換部(射影方式逆変換手段の一例)
764 形状変換部(形状変換手段の一例)
766 補正パラメータ作成部(補正情報作成手段の一例)
770 重畳表示メタデータ作成部(位置算出手段の一例)
782 添付領域作成部(添付領域作成手段の一例)
784 補正部(補正手段の一例)
786 画像作成部(画像作成手段の一例)
788 画像重畳部(画像重畳手段の一例)
790 射影変換部(射影変換手段の一例)
5000 記憶部(記憶手段の一例)
5001 連携撮影装置DB(連携撮影装置手段の一例)
7000 記憶部(記憶手段の一例)
特開2016−96487号公報 特開2012−178135号公報

Claims (12)

  1. 第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像と、前記第1の画像上で前記第2の画像に対応する基準形状を示す基準形状情報と、前記第1の画像上で前記基準形状を変換するための基準形状変換情報とを取得する取得手段と、
    前記基準形状変換情報に基づいて前記基準形状情報を変換することで、前記第2の画像に対応する合成画像を作成する画像作成手段と、
    前記合成画像を前記第1の画像に合成する画像合成手段と、
    を有することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、更に、
    前記基準形状変換情報に基づいて前記基準形状情報を変換した結果である変換位置パラメータを算出する変換位置パラメータ算出手段と、
    前記変換位置パラメータで特定される前記第1の画像上の対応領域を、前記第2の画像と同じ矩形の形状に変換する形状変換手段と、
    前記対応領域と第2の画像とを比較して輝度及び色のうち少なくとも一方を補正する補正情報を算出する補正情報作成手段と、
    を有し、
    前記画像作成手段は、前記補正情報に基づいて前記第2の画像の輝度及び色のうち少なくとも一方を補正して前記合成画像を作成することを特徴とする画像処理装置。
  3. 第1の画像又は第2の画像は、動画における同じ撮影時間のフレームであることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 請求項3に記載の画像処理装置であって、更に、
    前記取得手段は、単一の基準形状情報に対して複数の基準形状変換情報を取得し、
    前記動画における各フレームの再生時間に合わせて、前記複数の基準形状変換情報を用いて補間することで、各フレームの再生時間毎に前記基準形状を変換するための形状変換パラメータを作成する補間手段を有し、
    前記変換位置パラメータ算出手段は、前記形状変換パラメータ毎に前記基準形状情報を変換した結果である前記変換位置パラメータを算出することを特徴とする画像処理装置。
  5. 前記画像作成手段は、前記変換位置パラメータに基づいて作成された部分立体球に、前記第2の画像又は前記補正情報に基づいて前記第2の画像の輝度及び色のうちの少なくとも一方を補正した画像を張り付けることで前記合成画像を作成し、
    前記合成手段は前記第1の画像に基づいて作成された立体球画像に前記合成画像を合成することを特徴とする請求項2に記載の画像処理装置。
  6. 前記画像作成手段は、前記位置情報に基づいてマスクデータを作成し、
    前記マスクデータの周辺の透過度は、前記マスクデータの内側から外側に向けて徐々に高くなることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記第1の画像は正距円筒射影画像であり、前記第2の画像は透視射影画像であることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記画像処理装置は、スマートフォン、タブレット型パソコン、ノートパソコン、デスクトップパソコン、又はサーバコンピュータであることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 請求項1乃至8に記載の画像処理装置と、
    被写体を撮像し、前記第1の射影方式の前記第1の画像を得る第1の撮影装置と、
    被写体を撮像し、前記第2の射影方式の前記第2の画像を得る第2の撮影装置と、
    を有することを特徴とする撮影システム。
  10. 前記第1の撮影装置は、被写体を撮像し、全天球画像を得るカメラであることを特徴とする請求項9に記載の撮影システム。
  11. 第1の射影方式の第1の画像と、第1の射影方式とは異なる第2の射影方式の第2の画像と、前記第1の画像上で前記第2の画像に対応する基準形状を示す基準形状情報と、前記第1の画像上で前記基準形状を変換するための基準形状変換情報とを取得する取得ステップと、
    前記基準形状変換情報に基づいて前記基準形状情報を変換することで、前記第2の画像に対応する合成画像を作成する画像作成ステップと、
    前記合成画像を前記第1の画像に合成する画像合成ステップと、
    を実行することを特徴とする画像処理方法。
  12. コンピュータに、請求項11に記載の方法を実行させることを特徴とするプログラム。
JP2019042282A 2018-03-15 2019-03-08 画像処理装置、撮影システム、画像処理方法、及びプログラム Pending JP2019164782A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/353,817 US20190289206A1 (en) 2018-03-15 2019-03-14 Image processing apparatus, image capturing system, image processing method, and recording medium
CN201910196447.3A CN110392202A (zh) 2018-03-15 2019-03-14 图像处理装置、摄影系统、图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018048505 2018-03-15
JP2018048505 2018-03-15

Publications (1)

Publication Number Publication Date
JP2019164782A true JP2019164782A (ja) 2019-09-26

Family

ID=68065721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042282A Pending JP2019164782A (ja) 2018-03-15 2019-03-08 画像処理装置、撮影システム、画像処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2019164782A (ja)
CN (1) CN110392202A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097326A (ja) * 2019-12-17 2021-06-24 株式会社リコー 通信端末、撮影システム、画像処理方法及びプログラム
JP2022021886A (ja) * 2020-07-22 2022-02-03 日本放送協会 Vr映像生成装置及びプログラム
CN114322659A (zh) * 2021-12-31 2022-04-12 吉林市江机民科实业有限公司 一种白光瞄准镜分划投影显示方法
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP7625832B2 (ja) 2020-02-03 2025-02-04 株式会社リコー 画像表示装置、画像表示方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4124022A4 (en) * 2020-02-29 2024-03-06 Ohmi Digital Fabrications Co., Ltd. Video delivery method, video playback method, video delivery device, and delivery data structure
EP4576802A4 (en) * 2022-08-22 2025-12-17 Samsung Electronics Co Ltd IMAGE SYNTHESIS METHOD AND ELECTRONIC DEVICE SUPPORTING IT
CN115331587B (zh) * 2022-10-14 2022-12-20 南京达斯琪数字科技有限公司 一种减少重叠阴影的旋转显示方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391931B2 (en) * 2003-01-10 2008-06-24 Fujifilm Corporation Method, apparatus, and program for moving image synthesis
JP4513906B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
CN102243323B (zh) * 2010-05-10 2013-05-15 中南大学 基于视频探测的岩质边坡稳定性分析方法
WO2015068165A1 (en) * 2013-11-09 2015-05-14 Edgimago 2012 Ltd Method & system for measuring 3-dimensional objects
KR101844032B1 (ko) * 2014-12-26 2018-05-14 주식회사 케이티 파노라믹 비디오 영상의 관심 영역의 영상 전송 방법, 장치 및 디바이스
JP5846549B1 (ja) * 2015-02-06 2016-01-20 株式会社リコー 画像処理システム、画像処理方法、プログラム、撮像システム、画像生成装置、画像生成方法およびプログラム
US9940697B2 (en) * 2016-04-15 2018-04-10 Gopro, Inc. Systems and methods for combined pipeline processing of panoramic images

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097326A (ja) * 2019-12-17 2021-06-24 株式会社リコー 通信端末、撮影システム、画像処理方法及びプログラム
JP7424031B2 (ja) 2019-12-17 2024-01-30 株式会社リコー 通信端末、撮影システム、画像処理方法及びプログラム
JP7625832B2 (ja) 2020-02-03 2025-02-04 株式会社リコー 画像表示装置、画像表示方法及びプログラム
JP2022021886A (ja) * 2020-07-22 2022-02-03 日本放送協会 Vr映像生成装置及びプログラム
JP7498616B2 (ja) 2020-07-22 2024-06-12 日本放送協会 Vr映像生成装置及びプログラム
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
CN114322659A (zh) * 2021-12-31 2022-04-12 吉林市江机民科实业有限公司 一种白光瞄准镜分划投影显示方法
CN114322659B (zh) * 2021-12-31 2024-03-26 吉林市江机民科实业有限公司 一种白光瞄准镜分划投影显示方法

Also Published As

Publication number Publication date
CN110392202A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US10681271B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
JP2019164782A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
CN110114798A (zh) 图像处理设备,图像处理系统,图像捕获系统,图像处理方法和记录介质
JP2019057903A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN111726520B (zh) 摄影装置、摄影系统、图像处理方法
US10937134B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN108259717A (zh) 联动装置、摄影系统、摄影方法
JP2019075766A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US20190306420A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019185757A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP2018109946A (ja) 表示装置、プログラム、表示方法
JP2018110384A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
WO2018124267A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019164783A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP2018157538A (ja) プログラム、撮像システム、情報処理装置
JP2018109971A (ja) 画像処理装置、画像処理システム、撮影システム、画像処理方法、及びプログラム
JP2019087984A (ja) 情報処理装置、撮像システム、プログラム
WO2018124266A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018110385A (ja) 通信端末、撮影システム、画像処理方法、及びプログラム
JP2019175446A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム