JP5982751B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP5982751B2 JP5982751B2 JP2011171039A JP2011171039A JP5982751B2 JP 5982751 B2 JP5982751 B2 JP 5982751B2 JP 2011171039 A JP2011171039 A JP 2011171039A JP 2011171039 A JP2011171039 A JP 2011171039A JP 5982751 B2 JP5982751 B2 JP 5982751B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- polarization
- region
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/25—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/225—Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
左側の撮像装置で撮像し、左眼で観察する左眼用画像と、
右側の撮像装置で撮像し、右眼で観察する右眼用画像と、
のペア画像によって構成される。
しかしながら、後段で右眼用画像及び左眼用画像を抽出するために更に偏光フィルタを設け、光路自体を再度分けて別々の偏光フィルタに入光させなければならず、レンズ系において光の損失が発生し、また、装置の小型化が困難であるなどの問題がある。
撮像素子と、
前記撮像素子に異なる視点からの観察画像に対応する複数の視点画像を撮影させる入射光制御を行う入射光制御部と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記入射光制御部は、
左眼視点画像と右眼視点画像と、中央視点画像の3つの視点画像を取得する入射光制御構成を有し、
前記画像処理部は、
前記左眼視点画像と前記右眼視点画像との2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部と、
前記撮像素子からの前記中央視点画像に対する補正処理を実行して2次元画像を生成する画像補正部と、
前記視差検出部の生成した視差情報を適用して、前記画像補正部の生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成部を有する画像処理装置にある。
撮像素子と、
前記撮像素子に異なる視点からの観察画像に対応する複数の視点画像を撮影させる入射光制御を行う入射光制御部と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記入射光制御部は、
各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光部と、
前記第1偏光部の透過光を入射する第2偏光部であり、前記第1偏光領域の透過光のみを透過させる第3偏光領域と、前記第2偏光領域の透過光のみを透過させる第4偏光領域からなる第2偏光部を有し、
前記画像処理部は、
前記第2偏光部の前記第3偏光領域の透過光に基づく画像と、前記第2偏光部の前記第4偏光領域の透過光に基づく画像との2つの異なる視点画像の欠損画素領域に画素値を設定する補間処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置にある。
画像処理装置において、画像処理を実行する画像処理方法であり、
画像処理部が、
撮像素子からの出力信号の分離処理により、異なる視点からの観察画像に対応する複数の視点画像に分離する分離ステップと、
前記分離ステップにおける分離処理により取得した2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出ステップと、
前記撮像素子からの入力画像に対する補正処理を実行して2次元画像を生成する画像補正ステップと、
前記視差検出ステップにおいて生成した視差情報を適用して、前記画像補正ステップにおいて生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成ステップと、
を実行する画像処理方法にある。
画像処理装置において、画像処理を実行させるプログラムであり、
画像処理部に、
撮像素子からの出力信号の分離処理により、異なる視点からの観察画像に対応する複数の視点画像に分離させる分離ステップと、
前記分離ステップにおける分離処理により取得した2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成させる視差検出ステップと、
前記撮像素子からの入力画像に対する補正処理を実行して2次元画像を生成させる画像補正ステップと、
前記視差検出ステップにおいて生成した視差情報を適用して、前記画像補正ステップにおいて生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成させる視差画像生成ステップと、
を実行させるプログラムにある。
具体的には、例えば、異なる視点からの観察画像に対応する複数の視点画像を撮像素子に撮影させ、画像処理部において、撮像素子の出力信号を分離して、異なる視点からの観察画像に対応する複数の視点画像を取得し、取得した複数の視点画像に基づいて、3次元画像表示用の左眼用画像と右眼用画像を生成する。画像処理部は、撮像素子から得られる複数視点画像に基づいて視差情報を生成し、生成した視差情報を利用した2D3D変換処理によって3次元画像表示用の左眼用画像と右眼用画像を生成する。本構成により、1枚の撮影画像に基づいて複数の視点画像を取得して3次元画像表示用の画像を生成する構成が実現される。
1.画像処理装置の構成と処理の概要について
2.フルグリッド型の第2偏光部の適用構成における画像処理について
3.間引きグリッド型の第2偏光部の適用構成における画像処理について
4.マイクロレンズを利用した複数視点画像の取得構成例について
5.マイクロレンズと遮光膜を利用した複数視点画像の取得構成例について
6.本開示の構成のまとめ
図1以下を参照して本開示の画像処理装置の構成と処理の概要について説明する。図1は、画像処理装置の一例である撮像装置の構成を示している。
図1(A)に示す撮像装置10において、撮影レンズ11を介して撮影被写体に対応する入射光が入力する。
撮影レンズ11を介した入射光は、第1偏光部12、絞り13、結像レンズ14、第2偏光部15を介して撮像素子16に入力される。
図1(A)の中央付近に示す点線縦ライン(X軸)に示すように、図1(A)の上側が撮影者から見て右(R)側であり、図1(A)の下側が撮影者から見て左(L)側となる。
画像処理部17では、予め既定されたアルゴリズムに従った信号処理を実行し、処理結果としての画像データを記憶部18に格納する。
画像処理部17の構成と処理の詳細については後述する。
第1偏光部12は、図1(B)に示すように、左右に2分割されており、
左半分の領域に垂直偏光領域12V、
右半分の領域に水平偏光領域12H、
これらの異なる偏光領域が構成されている。なお、これらの偏光領域は例えば偏光フィルタを用いて構成される。
水平偏光領域12Hは、水平方向の偏波光のみを通過させ、水平偏光領域12Hを通過した光は、水平方向の偏波光となる。
同様に、図1(B)に示す重心点32は、水平偏光領域12Hの重心位置である。この水平偏光領域12Hの透過光は、重心点32を視点として観察した画像に相当する。
すなわち、
垂直偏光領域12Vの重心位置である重心点31を視点として観察した画像は、左眼からの観察画像である左眼視点画像(L画像)に対応し、
水平偏光領域12Hの重心位置である重心点32を視点として観察した画像は、右眼からの観察画像である右眼視点画像(R画像)に対応する。
このように、第1偏光部12を透過する画像は、左右の2つの異なる視点画像を、それぞれ垂直偏波光と水平偏波光として透過させることになる。
左眼用画像に相当するL画像(垂直偏波光)、
右眼用画像に相当するR画像(水平偏波光)、
これらの光は、結像レンズ14を介して、第2偏光部15に到達する。
なお、以下の説明において、「右眼用画像」は「右眼画像」、「左眼用画像」は「左眼画像」と簡略化して表記する場合がある。
第2偏光部15は、図1(C)に示すように、
水平偏光領域15H、
垂直偏光領域15V、
全透過(非偏光)領域15A、
これらの3種類の領域を上から順に繰り返し設定した構成を有する。
垂直偏光領域15Vは、垂直方向の偏波光を選択的に透過して撮像素子16に垂直偏波光のみを結像させる。
全透過(非偏光)領域15Aは、水平方向の偏波光も垂直方向の偏波光もすべて透過し、すべつの入射光を撮像素子16に結像させる。
撮像素子16は、RGB配列(ベイヤー配列)を有する撮像素子を例として示している。
第2偏光部15に設定される垂直偏光領域15Vと、水平偏光領域15Hは、撮像素子の2ライン単位で隣接して設定され、全透過(非偏光)領域15Aは12ライン単位で設定した例である。すなわち、
(a)2ラインの垂直偏光領域15V、
(b)2ラインの水平偏光領域15H、
(c)12ラインの全透過(非偏光)領域15V、
これら(a)〜(c)の3種類の領域が、撮像素子16の縦方向(Y方向)に繰り返し設定される。
垂直偏光領域15Vは、垂直方向の偏波光、すなわち、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)のみを選択的に透過して撮像素子16に左眼画像(L画像)を結像させる。
全透過(非偏光)領域15Aは、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)と、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)との両画像を透過させる。この画像は、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像に対応する画像となる。すなわち、偏光の影響による視点ずれのない通常の単眼カメラで撮影した通常画像と同様の画像となる。
第2偏光部15の構成としては、この他にも様々な構成が可能である。
例えば図3に示すように、垂直偏光領域15Vと、水平偏光領域15Hをそれぞれ矩形領域に設定し、これらを交互に配置した構成も設定可能である。
図4は、図3に示す第2偏光部とRGB配列の撮像素子16を重ねて示した図である。
2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hを設定し、これらを交互に配置している2行の領域、
14行の全透過(非偏光)領域15A、
これらを縦方向(Y方向)に繰り返して配置した構成である。
2×2の4画素からなる矩形領域からなる水平偏光領域15Hは、水平方向の偏波光、すなわち、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)のみを選択的に透過して撮像素子16に右眼画像(R画像)を結像させる。
2×2の4画素からなる矩形領域からなる垂直偏光領域15Vは、垂直方向の偏波光、すなわち、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)のみを選択的に透過して撮像素子16に左眼画像(L画像)を結像させる。
全透過(非偏光)領域15Aは、(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)と、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)との両画像を透過させる。この画像は、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像に対応する画像となる。すなわち、偏光の影響による視点ずれのない中心点33から観察した通常画像と同様の画像となる。
図6は、図5に示す第2偏光部とRGB配列の撮像素子16を重ねて示した図である。
2行の領域を単位として、水平偏光領域15Hと、垂直偏光領域15Vとを設定し、これらを交互に配置している。
すなわち、2行単位の水平偏光領域15Hと垂直偏光領域15Vを縦方向(Y方向)に繰り返して配置した構成である。
2行の水平偏光領域15Hは、水平方向の偏波光、すなわち、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)のみを選択的に透過して撮像素子16に右眼画像(R画像)を結像させる。
また2行の垂直偏光領域15Vは、垂直方向の偏波光、すなわち、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)のみを選択的に透過して撮像素子16に左眼画像(L画像)を結像させる。
本構成では、全透過(非偏光)領域15Aが設定されていないので、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像は取得されない。
以下、第2偏光部15の構成に応じた複数の画像処理例について説明する。
まず、フルグリッド型の第2偏光部の適用構成における画像処理について説明する。
なお、フルグリッド型の第2偏光部とは、図1(A)に示す撮像素子16の前面に設定される第2偏光部15の全てに偏光用のワイヤグリッドが設定された構成である。すなわち、図5、図6を参照して説明した第2偏光部15を適用した構成である。
従って、フルグリッド型の第2偏光部を適用した構成では、撮像素子16には、
左眼用画像(L画像)と、
右眼用画像(R画像)、
これらの異なる2つの視点画像のみが撮り込まれる。
図5、図6を参照して説明した構成、すなわち2行単位で水平偏光領域15Hと、垂直偏光領域15Vが設定された構成では、撮像素子16には、2行単位で、
右眼用画像(R画像)[=水平偏光領域15Hの透過画像]
左眼用画像(L画像)[=垂直偏光領域15Vの透過画像]
これらの各画像が撮り込まれる。
図7は、図1に示す画像処理部17の詳細構成を説明する図である。
フルグリッド型の第2偏光部15を適用した構成では、撮像素子16には、左眼用画像(L画像)と右眼用画像(R画像)に対応する2つの視点画像のみが撮り込まれる。
なお、以下の説明において、
撮像素子16における(a)垂直偏光領域と(b)水平偏光領域に対応する画素を、
PL(Polarized(=偏光))画素と呼ぶ。
(c)全透過(非偏光)領域に対応する画素を、
N(Non−polarized(非偏光))画素と呼ぶ。
撮像素子16の出力は、
PL画素出力(=垂直偏光領域と水平偏光領域対応画素の出力)、
のみによって構成される。
右眼用画像(R画像)信号61[=水平偏光領域15Hの透過画像信号]
左眼用画像(L画像)信号62[=垂直偏光領域15Vの透過画像信号]
これらの2つの視点画像への分離処理が実行される。
すなわち、図6を参照して説明したように2行単位で、水平偏光領域15Hと垂直変な光領域15Vが設定されている場合、
画素分離部51は、2行単位で設定された水平偏光領域15Hのみからなる画像信号と、2行単位で設定された垂直偏光領域15Vのみからなる画像信号とに分離する処理を行う。
水平偏光領域15Hの画像信号のみからなる右眼用画像(R画像)信号61は、右眼用画像(R画像)補間処理部52に入力される。
垂直偏光領域15Vの画像信号のみからなる左眼用画像(L画像)信号62は、左眼用画像(L画像)補間処理部54に入力される。
Raw画像は後段のデモザイク処理、すなわち各画素位置に全ての画素値(例えばRGBの各画素値)を設定するデモザイク処理によって例えば表示装置に出力可能なカラー画像が生成される。
(a)画素分離部51から入力する右眼用画像(R画像)信号61
(b)右眼用画像(R画像)補間処理部52の生成する補間画像63(2D−Raw(R)画像)
これらの各画像を示している。
右眼用画像(R画像)補間処理部52は、この画素値の設定されていない垂直偏光領域15Vに対応する画素の画素値を補間処理によって設定する。
具体的には、例えば、画素値の設定されない画素領域の画素値を、上下方向にある画素の画素値を適用した線形補間処理を行って算出して設定する。
また、補間処理に際して、画素値の各方向の変化率、すなわちエッジ方向を考慮し、変化率の小さい方向にある画素の画素値の重みを大きく設定する方向選択型の補間処理を行う構成としてもよい。
右眼用画像(R画像)補間処理部52の補間処理、
左眼用画像(L画像)補間処理部54の補間処理、
これらの補間処理によって、
右眼用画像(R画像)に対応する補間画像63(2D−Raw(R)画像)、
左眼用画像(L画像)に対応する補間画像64(2D−Raw(L)画像)、
これらの2つの視点に対応するRaw画像が生成される。
これらの2つのRaw画像は、撮像素子16の全ての画素位置に画素値が設定された2D(2次元)Raw画像である。
右眼用画像(R画像)補間処理部52の生成した補間画像63(2D−Raw(R)画像)はデモザイク処理部53に入力される。
左眼用画像(L画像)補間処理部54の生成した補間画像64(2D−Raw(L)画像)はデモザイク処理部54に入力される。
前述したように、デモザイク処理は、全ての画素位置に全ての色信号、例えばRGBの各色の画素値を設定する処理であり、一般的なカメラにおいて行われる処理である。
左眼用図像(L画像)71、
右眼用画像(R画像)72、
として画像出力部56を介して出力される。
さらに、これらの画像に基づく補間処理により、
全ての画素位置に左視点からの観察画像に相当する画素値を設定した左眼用画像と、
全ての画素位置に右視点からの観察画像に相当する画素値を設定した右眼用画像と、
を生成する。
これらの処理によって、1枚の撮影画像に基づいて、3D画像表示に適用する高精細な左眼用画像と右眼用画像を出力する。
また、水平偏光と垂直偏光の組み合わせのみならず、斜め方向の偏波光を透過させる偏光領域など、異なる2つの偏波方向を持つ偏光領域を任意に組み合わせた構成を適用することができる。
なお、第2偏光部15は、第1偏光部12の偏光領域の設定に対応させて、第1偏光部12に設定した偏光領域と同一の組み合わせを持つ偏光領域を設定することが必要である。
次に、間引きグリッド型の第2偏光部の適用構成における画像処理について説明する。
なお、間引きグリッド型の第2偏光部とは、図1(A)に示す撮像素子16の前面に設定される第2偏光部15の一部に偏光用のワイヤグリッドが設定された構成である。すなわち、水平偏光領域15Hと垂直偏光領域15Vを設定するとともに、偏光素子としてのワイヤグリッドを設定しない全透過(非偏光)領域15Aを設定した構成である。
あるいは、図3、図4を参照して説明したように、矩形領域の水平偏光領域15Hと垂直偏光領域15Vを設定するとともに、偏光素子としてのワイヤグリッドを設定しない全透過(非偏光)領域15Aを設定した構成などである。
なお、間引きグリッド型の第2偏光部の構成としては、図1(C)、図2、図3、図4の構成以外の設定も可能であり、
偏光領域と非偏光領域を有する偏光部を間引きグリッド型の偏光部として定義する。
(a)垂直偏光領域、
(b)水平偏光領域、
(c)全透過(非偏光)領域、
これらの3種類の領域に区分され、それぞれの領域対応の信号を画像処理部17に入力する。
なお、以下の説明において、
撮像素子16における(a)垂直偏光領域と(b)水平偏光領域に対応する画素を、
PL(Polarized(=偏光))画素と呼ぶ。
(c)全透過(非偏光)領域に対応する画素を、
N(Non−polarized(非偏光))画素と呼ぶ。
PL画素出力(=垂直偏光領域と水平偏光領域対応画素の出力)、
N画素出力(=全透過(非偏光)領域対応画素の出力)
これらの出力によって構成される。
すなわち、撮像素子16は、図4を参照して説明したように、
2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hが交互に配置された2行の領域と、14行の全透過(非偏光)領域15A、
これらが縦方向(Y方向)に繰り返して配置された構成を持つ。
図9は、図1に示す画像処理部17の詳細構成を説明する図である。
2×2の4画素からなる垂直偏光領域15Vの画素信号(=偏光領域画素(PL画素)信号)、
2×2の4画素からなる水平偏光領域15Hの画素信号(=偏光領域画素(PL画素)信号)、
全透過(非偏光)領域15Aの画素信号(=非偏光領域画素(N画素)信号)、
これらの3種類の画素信号が含まれる。
偏光領域画素(PL画素)と、
非偏光領域画素(N画素)と、
これらの2つの出力への分離処理が実行される。
中央視点画像補間処理部152は、N画素信号(非偏光画素信号)161から欠落した画素領域、すなわち、PL画素領域の画素についての画素補間処理を実行する。具体的には、例えば、PL画素領域の画素値を、上下のN画素の画素値を参照して算出して設定する補間処理を実行する。
デモザイク処理部153は、補間画像(2D−Raw画像)162に対するデモザイク処理、およびその他のカメラ信号処理を行い、通常の2次元画像に変換する。
デモザイク処理は、全ての画素位置に全ての色信号、例えばRGBの各色の画素値を設定する処理であり、一般的なカメラにおいて行われる処理である。
デモザイク処理部153の生成した2D−RGB画像163は、視差画像生成部156に入力される。
このPL画素信号(偏光画素信号)165は、左右視点画像補間処理部154に入力される。
従って、画素分離部151の分離処理によって生成されるPL画素信号(偏光画素信号)165は、2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hが交互に配置された2行の領域が、縦方向に14行おきに設定された画像となる。
左眼視点から観察した画像に対応する左眼用画像信号(垂直偏光画像信号)、
右眼視点から観察した画像に対応する右眼用画像信号(水平偏光画像信号)、
これらの視差画像166を生成する。
左右視点画像補間処理部154は、図10に示すように、PL画素信号(偏光画素信号)165に含まれるPL画素領域について、
すべてを垂直偏光領域15Vに対応する画素値を設定した左眼画像信号(垂直偏光画像信号)166a、
すべてを水平偏光領域15Hに対応する画素値を設定した右眼画像信号(水平偏光画像信号)166b、
これらの各画像を生成する。
同様に、図10に示す右眼画像信号(水平偏光画像信号)166bは、PL画素信号(偏光画素信号)165に含まれるPL画素領域の垂直偏光画素領域の画素値をリセット(取り除き)、近傍の水平偏光画素の画素値を用いて、これらのリセット画素の画素値を設定する画素値補間処理によって生成する。
同様に、右眼画像信号(水平偏光画像信号)166bに含まれる画素値の設定された画像は、図1(B)に示す第1偏光部12の右側の重心点32から見た画像、すなわち右眼画像に対応する画像となる。
左眼画像信号(垂直偏光画像信号)166a、
右眼画像信号(水平偏光画像信号)166b、
を生成する。
左右視点画像補間処理部154の生成したこれらの画像は、視差検出部155に入力される。
左眼画像信号(垂直偏光画像信号)166a、
右眼画像信号(水平偏光画像信号)166b、
これらの2つの画像に対して、例えばブロックマッチング処理等を用いて、対応画素を比較し、被写体ずれ量を求めることにより視差情報としての被写体距離を検出する。
すなわち、例えばブロックマッチング処理によって、左眼画像と右眼画像の画素間のずれを検出し、ずれ量に応じた被写体距離を算出する。
なお、デプスマップ167は、画像の構成画素各々についての被写体距離情報を持つデータである。例えば被写体距離に応じた輝度値を設定した画像として構成される。
具体的には、例えば、
被写体距離が小(カメラに近い)の領域は高輝度、
被写体距離が大(カメラから遠い)の領域は低輝度、
視差検出部155は、このような画素値設定のなされたデプスマップを生成して、視差画像生成部156に出力する。
左眼画像信号(垂直偏光画像信号)166a、
右眼画像信号(水平偏光画像信号)166b、
これらの画像は、図10に示すように、入力画像中のN画素(非偏光画素)領域については、画像信号を有していないが、視差検出部155は、例えばこれらの画素値を持たないN画素(非偏光画素)領域については、左眼画像信号(垂直偏光画像信号)166aに基づく補間画素値を設定した左眼画像と、右眼画像信号(水平偏光画像信号)166bに基づく補間画素値を設定した右眼画像を算出し、これらの画像間のマッチング処理によってすべての画素対応の距離情報を算出する。
なお、画素値補間処理には、例えば線形補間処理等が利用可能である。
図10に示す各視点からの画像、すなわち、
左眼画像信号(垂直偏光画像信号)166a、
右眼画像信号(水平偏光画像信号)166b、
これらの画像はRGBの各信号を設定した画像となっているが、画素分離部151の出力するPL画素信号(偏光画素信号)165に含まれるG画素のみを用いて視差画像としてのL画像とR画像を生成してもよい。
G画素のみを用いた視差画像の生成処理は図11に示す以下の2つの補間処理ステップからなる。
(a)補間処理ステップ1=偏光領域におけるG画素補間処理、
(b)補間処理ステップ2=水平方向のG画素ライン(行)の設定処理、
(a)補間処理ステップ1=偏光領域におけるG画素補間処理
この処理を示している。
図11には、左眼画像信号(垂直偏光画像信号)を生成する処理例を示している。すなわち、画素分離部151の生成するPL画素信号165に含まれる左眼画像信号(垂直偏光画像信号)に基づいて、撮像素子16の全画素領域に左眼画像信号に対応するG画素を設定する処理である。
左眼用画像信号である垂直偏光領域15Vと、右眼用画像信号である水平偏光領域15Hは2×2の画素領域として繰り返し設定されている。
図11(a)には、偏光領域の2行のみを示しており、
2×2画素の左眼画像信号に対応する垂直偏光領域15Vと、2×2画素の右眼画像信号に対応する水平偏光領域15Hが交互に設定された画素領域を示している。
まず、右眼用画像に対応する水平偏光領域15Hの画素値を削除して、ここに左眼画像信号に対応する垂直偏光領域15VにあるG画素の画素値に基づく補間画素値を設定する。
例えば、G14の画素値G14は、同一行の2つの左右にある左眼画像信号に対応する垂直偏光領域15Vにある最近接のG画素の画素値(G12,G16)を用いて以下の式で算出する。
G14=(1/2)(G12+G16)
同様に、G23の画素値G23は、同一行の2つの左右にある垂直偏光領域15Vにある最近接のG画素の画素値(G21,G25)を用いて以下の式で算出する。
G23=(1/2)(G21+G25)
この処理によって、2行の偏光画素領域の各列に左眼用画像に対応する1つのG画素の画素値が設定される。
(b)補間処理ステップ2=水平方向のG画素ライン(行)の設定処理、
この補間処理ステップ2である。
図11(b)には、この補間処理ステップ2の処理例として、2つの手法(手法1、手法2)を示している。
なお、偏光領域は2行単位で設定されているが、垂直2行に対して1行のG画素ラインとして出力する。
例えば、図11(b)に示すように、(b2)に示す新たなG画素の画素値G1は、
G1=(1/2)(G21+G12)
上記式に従って算出する。
同様に、G2,G3,G4・・・を図11(a)に示すステップ1において設定した隣接する2つのG画素値を用いて算出する。
これら手法1または手法2のいずれかを行う補間処理ステップ2の実行により、偏光領域に対応する行の画素には、左眼視点画像に対応するG画素の設定が完了する。
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの2つの補間画像を生成して視差検出部156に提供する構成としてもよい。
この処理について、図12を参照して説明する。
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの補間画像である。
視差検出部155は、まず、これらの補間画像を適用して偏光領域の各画素に対応する視差を算出して、視差に対応する被写体距離(D:デプス)を算出する。
図12に示すように、偏光領域に設定されたデプスD1,D2を用いて、非偏光領域の各に画素に対応するデプスを算出して設定する。
図12の例では、説明を簡単にするために偏光領域が1行、非偏光領域が7行に設定された例を示しており、D1,D2がそれぞれ任意の列に対する偏光領域の画素に対応するデプス情報である。
これらは、左右視点画像補間処理部154の生成した、
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの補間画像によって算出されるデプス情報である。
D'1=D1
D'2=(7/8)D1+(1/8)D2
D'3=(6/8)D1+(2/8)D2
: :
D'8=(1/8)D1+(7/8)D2
D'9=D2
このように、D1,D2を用いた拡大処理を行い、D1,D2からの距離に応じた重みを設定して各画素のデプスを推定したデプスマップを生成する。
このようにして生成されたデプスマップ167が視差画像生成部156に提供される。
ここで、図12の例では簡単のために偏光領域が1行、非偏光領域が7行として拡大処理について説明したが、図10で説明するように偏光領域が2行である場合、図11を用いて上述したように、偏光領域に対して1行のデプスマップが生成される。このデプスマップは、偏光領域の2行に対して仮想的に中央の行のデプスマップとなっているため、偏光領域の2行、および非偏光領域のk行に対して、図12での説明と同様にして距離に応じた重みを設定して各画素のデプスを推定したデプスマップを生成する。
視差画像生成部156は、デモザイク処理部153から出力される2次元画像である2D−RGB画像163と、視差検出部155から出力される視差情報としてのデプスマップ167を用いて、左眼画像(L画像)171と、右眼画像(R画像)172の2枚の画像を生成する。
なお、この視差画像生成部156において実行する画像変換処理は、1枚の2次元画像(2D画像)に基づく画像変換により3次元画像表示に適用可能な左眼画像(L画像)171と、右眼画像(R画像)172を生成して出力する処理であり、一般的には例えば2D3D変換処理と呼ばれる処理である。
視差画像生成部156では、デプスマップ167を用いた2D3D変換処理により、デモザイク処理部153から入力した1つの画像、すなわち、2D−RGB画像163から、3次元画像表示に適用する右眼画像と左眼画像を生成する。
視差画像生成部156は、デプスマップから得られる画素領域単位の被写体距離情報に応じた視差(シフト量)を設定した右眼画像と左眼画像を生成して画像出力部157を介して出力する。
視差画像生成部156は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで新たな視点の画像を生成する処理を行う。視差画像生成部156は、微分器181、ゲイン制御部182、非線形変換部183、および画像合成部184から構成される。
なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
図14は、ゲイン制御部182の一実施例の構成を示すブロック図である。ゲイン制御部182では、入力された微分信号の振幅値を、同じく入力した奥行き情報を基に、その振幅値を制御する。なお、以下に説明する実施例では、奥行き情報は入力微分信号の1画素ごとに、1つの深さの値を有する、所謂デプスマップの形状で入力されるものとして説明していく。視差検出部155の生成するデプスマップ167から取得される情報である。
乗算処理部192は、入力された微分信号の各画素について、ゲイン係数算出部191から出力された各画素に対するゲイン係数を、微分信号(H)の振幅値に乗じる乗算処理を行い、結果として振幅値がゲイン制御された補正微分信号(H')を出力する。
ゲイン係数算出部191は、入力された奥行き情報(In)を、予め設定した関数f(x)により変換して、ゲイン係数(Out)を出力する。
このとき、関数f(x)は、様々な設定が利用可能である。
関数f(x)の一例としては、例えば、
f(x)=A×x
(ただしAは定数)
上記式に示されるような線形一次関数を用いる。Aは予め設定した定数であり、様々な値に設定可能である。
奥行き情報は、微分信号の各画素に応じた値を入力し、各画素に応じたゲイン係数を出力するものとする。
入力値(奥行き情報)の例は、D1、D2、D3であり、ある3つの画素に対応した奥行きの値を想定する。なお、奥行きとは観察者(ユーザ)あるいはカメラから被写体までの距離に対応する値である。
奥行き(=被写体距離)はD1<D2<D3の順に、手前から奥へと深く(ユーザまたはカメラから遠く)なっていくものとする。ここで、図15中、奥行き情報In=0の位置は生成した画像を3次元表示装置に表示した場合に表示画面上に知覚される点である。
このとき出力値(ゲイン係数)の例は、G1、G2、G3であり、各々は図15中の関数f(x)に、D1、D2、D3の値を入力することで得られる値である。
この例のように、ゲイン係数算出部191は、微分信号の各画素に応じたゲイン係数を出力する。
図16には、
(a)入力信号
(b)微分信号
(c)奥行き情報
(d)補正後の微分信号
これらの例を示している。
図16(b)は、図16(a)の入力画像信号を微分処理した画像である。
図16(c)は、図16(a)の入力画像信号に対応した奥行き情報であり、画像を3分割した各領域に奥行きの値を与えた簡易なものである。
G3、G2、G1(G1<G2<G3)
となる。
図16(d)補正後の微分信号においては、画面上部ほど(遠い領域ほど)、大きなゲイン値が乗じられ、画面下部ほど(近い領域ほど)小さなゲイン値が乗じられる。
この結果、画面上部ほど(遠い領域ほど)微分信号の振幅値が大きくなり、画面下部ほど(近い領域ほど)微分信号の振幅は小さくなる。
f(x)=xγ
上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部183における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部184は、処理対象画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して新たな視点の画像を生成する処理を行う。
図18は、距離が大の画像領域(奥行きが大きい画像領域)
図19は、距離が小の画像領域(奥行きが小さい画像領域)
これらの各画像領域について、上から順に、
(a)入力信号(S)
(b)微分信号(H)
(c)補正(ゲイン制御)後の補正微分信号(H')
(d)右シフト画像信号
(e)左シフト画像信号
これらの各信号を示している。
(a)入力信号(S)は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
微分器181の生成する微分信号(H)は、図18に示すとおり、(a)入力信号(S)の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
図18(d)に示す通り、大きなゲイン(G3)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフトが大きい画像信号が生成される。同様に、図18(d)では、左シフト量が大きい画像信号が生成される。
また、この入力画像を左シフトすることで、(e)左眼画像信号を生成する。
図19(d)に示す通り、小さなゲイン(G1)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフト量が小さい画像信号が生成される。同様に、図18(d)では、左シフト量が小さい画像信号が生成される。
距離=大の場合は、振幅の大きい補正微分信号
距離=小の場合は、振幅の小さい補正微分信号、
これらの補正微分信号(図18、図19の(c))を生成し、これらの補正微分信号(またはその非線形変換結果である視差強調信号)と(a)入力信号との合成処理により、入力画像と異なる視点からの観察画像に相当する(d)右眼画像信号、または(e)左眼画像信号を生成する。
図18、図19の(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図18、図19の(b)に示す微分信号の信号レベルを(H)とする。
また、ゲイン制御部182において行われる微分信号の補正結果としての補正微分信号の信号レベルを(H')てとする。
なお、補正微分信号(H')の生成の際、(b)微分信号(H)に乗じるゲイン値(G)は、奥行き情報(D)をもとに予め設定された関数などから決定される。
図19に示す距離が小の場合のゲイン値をG1、
とする。
図18、図19に示す例は、G3>1>G1の関係を想定している。
図18に示す距離が大の場合の補正後微分信号(H')は、
H'=G3×H
図19に示す距離が小の場合の補正後微分信号(H')は、
H'=G1×H
これらの式によって算出された信号が、図18、図19の(c)補正後の微分信号の信号レベル(H')となる。
一方、図19(c)に示す距離が小の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が小さくなっている。
すなわち、視差検出部155の出力するデプスマップにおける奥行き情報が大(カメラからの距離が遠い)画素については、(b)微分信号に対して大きなゲイン値を乗じて補正されて図18(c)に示す補正後微分信号が生成される。
一方、視差検出部155の出力するデプスマップにおける奥行き情報が小(カメラからの距離が近い)画素については、(b)微分信号に対して小さなゲイン値を乗じて補正されて図19(c)に示す補正後微分信号が生成される。
Right=S−E'
Left=S+E'
これにより得られる信号が、図18(d)、図19(d)に実線で示す右シフト画像信号、および、図18(e)、図19(e)に示す左シフト画像信号である。
Right=S−E
Left=S+E
である。
図18に示す距離が大の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部(信号の変化部)が急峻になっており、(a)入力信号に比較して信号のシフトが大きくなっている。
一方、図19に示す距離が小の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部が滑らかになっており、(a)入力信号に比較して信号のシフトが小さくなっている。
さらに、偏光子を配置しない画素によって通常の2次元画像を取得して、これらの情報から画像処理によって3D画像表示に適用する高精細な左眼用画像と右眼用画像を出力する。
また、水平偏光と垂直偏光の組み合わせのみならず、斜め方向の偏波光を透過させる偏光領域など、異なる2つの偏波方向を持つ偏光領域を任意に組み合わせた構成を適用することができる。
なお、第2偏光部15は、第1偏光部12の偏光領域の設定に対応させて、第1偏光部12に設定した偏光領域と同一の組み合わせを持つ偏光領域を設定することが必要である。
先に説明した構成では、図1に示す第2偏光部15の偏光領域は、例えばワイヤグリッド偏光子を用いた構成とされる。ワイヤグリッド偏光子は、微細なワイヤ(例えばAl(アルミ)線)を微細間隔で並べた構成を有し、ワイヤ配列方向に応じた偏光特性を奏する偏光素子である。
左視点からの観察画像に対応する左眼用画像、
右視点からの観察画像に対応する右眼用画像、
これらの各画像を取得し、
さらに、ワイヤグリッドを配置しない非偏光領域において、
中央視点からの観察画像を取得する構成としていた。
例えば撮像素子の前面にマイクロレンズを配置する構成によって異なる視点からの画像を取得することができる。
上述した本開示の画像処理は、マイクロレンズを用いて撮影された画像に対する処理として行うことも可能である。
図20は、本実施例に係る撮像装置300の全体構成を示す図である。
図20に示す撮像装置300において、先に図1(A)を参照して説明した撮像装置10と同一の構成については同じ参照符号を付している。
撮影レンズ11を介した入射光は、絞り13、結像レンズ14、マイクロレンズアレイ301を介して撮像素子16に入力される。
図20の中央付近に示す点線縦ライン(X軸)に示すように、図20の上側が撮影者から見て右(R)側であり、図20の下側が撮影者から見て左(L)側となる。
画像処理部17では、予め既定されたアルゴリズムに従った信号処理を実行し、処理結果としての画像データを記憶部18に格納する。
画像処理部17の構成と処理は、先に図7〜図19を参照して説明したと同様の構成と処理となる。
この図20に示す撮像装置300は、このマイクロレンズアレイ300を用いて、異なる視点からの画像を撮り込む。
図21(a)は、ベイヤ(Bayer)配列を持つ撮像素子上に設定されるマイクロレンズアレイ300の構成例を示している。図の左右方向が水平方向、すなわちx方向であり、縦方向が垂直方向、すなわちy方向である。
マイクロレンズ311の配置された領域が、前述の実施例における偏光領域、すなわちワイヤグリッド配置領域と同様、左眼視点からの画像である左眼用画像と、右眼視点からの画像である右眼用画像を取得する領域である。
マイクロレンズの配置されない領域が、前述の実施例における非偏光領域に対応し、中央視点からの通常画像を取得する中央視点画像取得領域313となる。
RGGBの4画素に対して1つのマイクロレンズが配置される。
図21(b)に示すRGGBの4画素中、右側のG画素とB画素が左眼視点からの画像に対応する左眼用画像取得画素321となる。また、左側のR画素とG画素が右眼視点からの画像に対応する右眼用画像取得画素322となる。
左眼視点画像は、マイクロレンズ331とカラーフィルタ332のB領域を介して撮像素子16を構成するB画素対応のフォトダイオード333に入射する。
一方、右眼視点画像は、マイクロレンズ331、とカラーフィルタ332のG領域を介して撮像素子16を構成するG画素対応のフォトダイオード333に入射する。
すなわち、左右視点画像取得領域312の画素値情報に基づくデプスマップを生成して、中央視点画像取得領域313の画素値情報に基づく補間処理によって生成される2D−Raw画像に対してデプスマップを適用した2D−3D変換処理によって3次元画像表示に適用する左眼用画像と右眼用画像を生成する。
図21(b)に示すように、マイクロレンズ配置単位には異なる視点からの撮影画像を取得している2つのG画素が存在する。これらのG画素は、それぞれ右画素、左画素に相当し、水平方向に並んだG画素から1ライン分の左右画像を生成することが可能である。
次に、マイクロレンズと遮光膜を利用した複数視点画像の取得構成例について説明する。
図23は、本実施例に係る撮像装置500の全体構成を示す図である。
図23に示す撮像装置500において、先に図1(A)を参照して説明した撮像装置10と同一の構成については同し参照符号を付している。
撮影レンズ11を介した入射光は、絞り13、結像レンズ14、マイクロレンズアレイ501、遮光膜502を介して撮像素子16に入力される。
図23の中央付近に示す点線縦ライン(X軸)に示すように、図23の上側が撮影者から見て右(R)側であり、図23の下側が撮影者から見て左(L)側となる。
画像処理部17では、予め既定されたアルゴリズムに従った信号処理を実行し、処理結果としての画像データを記憶部18に格納する。
画像処理部17の構成と処理は、先に図7〜図19を参照して説明したと同様の構成と処理となる。
この図23に示す撮像装置500は、このマイクロレンズアレイ501と遮光膜502を用いて、異なる視点からの画像を撮り込む。
図24(a)は、ベイヤ(Bayer)配列を持つ撮像素子上に設定されるマイクロレンズアレイ501と遮光膜502の構成例を示している。図の左右方向が水平方向、すなわちx方向であり、縦方向が垂直方向、すなわちy方向である。
さらに、遮光膜512が、左右視点画像取得領域521に配置される。遮光膜512は、各画素の一部領域を遮光し、一部領域を透過させる構成とされている。
マイクロレンズ511と遮光膜512の配置されない領域が、前述の実施例における非偏光領域に対応し、中央視点からの通常画像を取得する中央視点画像取得領域522となる。
各マイクロレンズ511は、各画素に対応して配置される。RGGBの4画素に対して4つのマイクロレンズが配置される。
図24(b)に示すRGGBの4画素中、右側のG画素とB画素が左眼視点からの画像に対応する左眼用画像取得画素531となる。また、左側のR画素とG画素が右眼視点からの画像に対応する右眼用画像取得画素532となる。
左眼視点画像は、マイクロレンズ541とカラーフィルタ542のB領域を通過して、遮光膜543による遮光領域以外の透過領域を通過した光のみが撮像素子16を構成するB画素対応のフォトダイオード333に入射する。
一方、右眼視点画像は、マイクロレンズ541とカラーフィルタ542のG領域を通過して、遮光膜543による遮光領域以外の透過領域を通過した光のみが撮像素子16を構成するG画素対応のフォトダイオード333に入射する。
すなわち、左右視点画像取得領域521の画素値情報に基づくデプスマップを生成して、中央視点画像取得領域522の画素値情報に基づく補間処理によって生成される2D−Raw画像に対してデプスマップを適用した2D−3D変換処理によって3次元画像表示に適用する左眼用画像と右眼用画像を生成する。
図24(b)に示すように、左右視点画像取得領域521の2×2画素には、異なる視点からの撮影画像を取得している2つのG画素が存在する。これらのG画素は、それぞれ右画素、左画素に相当し、水平方向に並んだG画素から1ライン分の左右画像を生成することが可能である。
以上、特定の実施例を参照しながら、本開示の構成について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 撮像素子と、
前記撮像素子に異なる視点からの観察画像に対応する複数の視点画像を撮影させる入射光制御を行う入射光制御部と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記入射光制御部は、
左眼視点画像と右眼視点画像と、中央視点画像の3つの視点画像を取得する入射光制御構成を有し、
前記画像処理部は、
前記左眼視点画像と前記右眼視点画像との2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部と、
前記撮像素子からの前記中央視点画像に対する補正処理を実行して2次元画像を生成する画像補正部と、
前記視差検出部の生成した視差情報を適用して、前記画像補正部の生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成部を有する画像処理装置。
(7)前記左右視点画像取得領域は、1色の画素によって構成され、前記画像処理部は、前記1色の画素によって構成された前記左右視点画像取得領域の出力信号から得られる2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部を有する前記(1)〜(6)いずれかに記載の画像処理装置。
(9)前記画像処理部は、前記撮像素子から取得する2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部と、前記撮像素子からの取得画像に対する補正処理を実行して2次元画像を生成する画像補正部と、前記視差検出部の生成した視差情報を適用して、前記画像補正部の生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成部を有する前記(1)〜(8)いずれかに記載の画像処理装置。
(11)前記画像処理部の実行する前記2D3D変換処理は、前記第1視点画像に対して被写体距離に応じた画像シフト処理を行うことで3次元画像表示用の左眼用画像と右眼用画像を生成する2D3D変換処理である前記(10)に記載の画像処理装置。
前記撮像素子に異なる視点からの観察画像に対応する複数の視点画像を撮影させる入射光制御を行う入射光制御部と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記入射光制御部は、
各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光部と、
前記第1偏光部の透過光を入射する第2偏光部であり、前記第1偏光領域の透過光のみを透過させる第3偏光領域と、前記第2偏光領域の透過光のみを透過させる第4偏光領域からなる第2偏光部を有し、
前記画像処理部は、
前記第2偏光部の前記第3偏光領域の透過光に基づく画像と、前記第2偏光部の前記第4偏光領域の透過光に基づく画像との2つの異なる視点画像の欠損画素領域に画素値を設定する補間処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置。
具体的には、例えば、異なる視点からの観察画像に対応する複数の視点画像を撮像素子に撮影させ、画像処理部において、撮像素子の出力信号を分離して、異なる視点からの観察画像に対応する複数の視点画像を取得し、取得した複数の視点画像に基づいて、3次元画像表示用の左眼用画像と右眼用画像を生成する。画像処理部は、撮像素子から得られる複数視点画像に基づいて視差情報を生成し、生成した視差情報を利用した2D3D変換処理によって3次元画像表示用の左眼用画像と右眼用画像を生成する。本構成により、1枚の撮影画像に基づいて複数の視点画像を取得して3次元画像表示用の画像を生成する構成が実現される。
11 撮影レンズ
12 第1偏光部
13 絞り
14 結像レンズ
15 第2偏光部
16 撮像素子
17 画像処理部
18 記憶部
51 画素分離部
52 右眼用画像(R画像)補間処理部
53 右眼用画像(R画像)デモザイク処理部
54 左眼用画像(L画像)補間処理部
55 左眼用画像(L画像)デモザイク処理部
56 画像出力部
61 右眼用画像信号(水平偏光画素信号)
62 左眼用画像信号(垂直偏光画素信号)
63 補間画像(2D−Raw(R)画像)
64 補間画像(2D−Raw(L)画像)
71 左眼画像(L画像)
72 右眼画像(R画像)
151 画素分離部
152 中央視点画像補間処理部
153 デモザイク処理部
154 左右視点画像補間処理部
155 視差検出部
156 視差画像生成部
157 画像出力部
161 N画素信号(非偏光画素信号)
162 補間画像(2D−Raw画像)
163 2D−RGB画像
165 PL画素信号(偏光画素信号)
166 左眼右眼画像信号
167 デプスマップ
171 左眼画像(L画像)
172 右眼画像(R画像)
181 微分器
182 ゲイン制御部
183 非線形変換部
184 画像合成部
191 ゲイン係数算出部
192 乗算処理部
300 撮像装置
301 マイクロレンズアレイ
311 マイクロレンズ
312 左右視点画像取得領域
313 中央視点画像取得領域
321 左眼用画像取得画素
322 右眼用画像取得画素
331 マイクロレンズ
332 カラーフィルタ
333 フォトダイオード
500 撮像装置
501 マイクロレンズアレイ
502 遮光膜
511 マイクロレンズ
512 遮光膜
521 左右視点画像取得領域
522 中央視点画像取得領域
531 左眼用画像取得画素
532 右眼用画像取得画素
541 マイクロレンズ
542 カラーフィルタ
543 遮光膜
544 フォトダイオード
Claims (15)
- 複数の異なる偏光方向の光を透過させる複数の異なる偏光素子が隣接して構成される偏光領域と、全ての偏光方向の光を透過させる全透過領域からなる偏光部と、
前記偏光部から出力される光から画像信号を生成する撮像素子であり、
前記全透過領域の通過光から中央視点画像の画像信号を生成し、前記偏光領域の通過光から複数の異なる視点画像の画像信号を生成する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部であり、
前記中央視点画像に画素値を設定して2次元画像を生成するとともに、前記複数の異なる視点画像を適用して被写体距離を反映した視差情報を生成する画像処理部と、
を備える画像処理装置。 - 前記偏光領域は、垂直偏光領域と水平偏光領域からなる請求項1に記載の画像処理装置。
- 前記偏光領域は、前記撮像素子の所定のライン単位で隣接して構成され、
前記全透過領域は、前記撮像素子の所定のライン単位で構成される請求項1〜2いずれかに記載の画像処理装置。 - 前記偏光領域は、前記撮像素子の複数画素からなる矩形領域を単位として構成され、
前記矩形領域の水平方向の長さは、前記撮像素子の水平方向の長さより短く、
前記全透過領域は、前記撮像素子の所定のライン単位で構成される請求項1〜3いずれかに記載の画像処理装置。 - 前記全透過領域は、中央視点画像になる前記光を取得し、
前記偏光領域は、左眼視点画像になる前記光と右眼視点画像になる前記光を取得する請求項1〜4いずれかに記載の画像処理装置。 - 前記画像処理装置は、
更に第2偏光部を有し、
前記第2偏光部は、各々が異なる偏光を透過させる第1偏光領域と第2偏光領域を有し、
前記偏光部は、前記第2偏光部の透過光を入射する請求項1〜5いずれかに記載の画像処理装置。 - 前記偏光部が有する偏光領域は、ワイヤグリッド偏光子によって構成される
請求項1〜6いずれかに記載の画像処理装置。 - 前記画像処理部は、前記中央視点画像と前記中央視点画像とは異なる視点画像に分離する画素分離部を有する請求項1〜7いずれかに記載の画像処理装置。
- 前記画像処理部は、
前記左眼視点画像と前記右眼視点画像との2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部と、
前記撮像素子から入力する前記中央視点画像に画素値を設定する補間処理を実行して2次元画像を生成する画像補正部と、
前記視差検出部の生成した視差情報を適用して、前記画像補正部の生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成部を有する請求項5に記載の画像処理装置。 - 前記撮像素子は、
被写体距離を反映した視差情報を生成するための2つの異なる視点画像を取得する左右視点画像取得領域と、
1つの視点からの撮影画像を生成する中央視点画像取得領域を有する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記撮像素子の構成画素からの出力信号から得られる2つの異なる視点画像を適用して被写体距離を反映した視差情報として、画像の被写体距離情報を反映したデプスマップを生成し、
前記デプスマップを適用した画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記撮像素子から取得する2つの異なる視点画像を適用して被写体距離を反映した視差情報を生成する視差検出部と、
前記撮像素子からの取得画像の画素値を設定する補間処理を実行して2次元画像を生成する画像補正部と、
前記視差検出部の生成した視差情報を適用して、前記画像補正部の生成した2次元画像の画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する視差画像生成部を有する請求項1に記載の画像処理装置。 - 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
複数の異なる偏光方向の光を透過させる複数の異なる偏光素子が隣接して構成される偏光領域と、全ての偏光方向の光を透過させる全透過領域からなる偏光部と、
前記偏光部から出力される光から画像信号を生成する撮像素子であり、
前記全透過領域の通過光から中央視点画像の画像信号を生成し、前記偏光領域の通過光から複数の異なる視点画像の画像信号を生成する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記中央視点画像に画素値を設定して2次元画像を生成するとともに、前記複数の異なる視点画像を適用して被写体距離を反映した視差情報を生成する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
複数の異なる偏光方向の光を透過させる複数の異なる偏光素子が隣接して構成される偏光領域と、全ての偏光方向の光を透過させる全透過領域からなる偏光部と、
前記偏光部から出力される光から画像信号を生成する撮像素子であり、
前記全透過領域の通過光から中央視点画像の画像信号を生成し、前記偏光領域の通過光から複数の異なる視点画像の画像信号を生成する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記中央視点画像に画素値を設定して2次元画像を生成するとともに、前記複数の異なる視点画像を適用して被写体距離を反映した視差情報を生成させるプログラム。 - 画像処理装置において画像処理を実行させるプログラムを格納した記録媒体であり、
前記画像処理装置は、
複数の異なる偏光方向の光を透過させる複数の異なる偏光素子が隣接して構成される偏光領域と、全ての偏光方向の光を透過させる全透過領域からなる偏光部と、
前記偏光部から出力される光から画像信号を生成する撮像素子であり、
前記全透過領域の通過光から中央視点画像の画像信号を生成し、前記偏光領域の通過光から複数の異なる視点画像の画像信号を生成する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記記録媒体は、前記画像処理部に、前記中央視点画像に画素値を設定して2次元画像を生成するとともに、前記複数の異なる視点画像を適用して被写体距離を反映した視差情報を生成させるプログラムを格納した記録媒体。
Priority Applications (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011171039A JP5982751B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
| US13/550,804 US8982190B2 (en) | 2011-08-04 | 2012-07-17 | Image processing apparatus, image processing method, and program for generating a three dimensional image to be stereoscopically viewed |
| CN201610239453.9A CN105872525B (zh) | 2011-08-04 | 2012-07-30 | 图像处理装置和图像处理方法 |
| CN201210270094.5A CN102917235B (zh) | 2011-08-04 | 2012-07-30 | 图像处理装置和图像处理方法 |
| US14/564,234 US9118904B2 (en) | 2011-08-04 | 2014-12-09 | Image processing apparatus, image processing method, and program for generating a three dimensional image to be stereoscopically viewed |
| US14/789,425 US9798155B2 (en) | 2011-08-04 | 2015-07-01 | Image processing apparatus, image processing method, and program for generating a three dimensional image to be stereoscopically viewed |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011171039A JP5982751B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2013038503A JP2013038503A (ja) | 2013-02-21 |
| JP5982751B2 true JP5982751B2 (ja) | 2016-08-31 |
Family
ID=47615444
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011171039A Expired - Fee Related JP5982751B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (3) | US8982190B2 (ja) |
| JP (1) | JP5982751B2 (ja) |
| CN (2) | CN102917235B (ja) |
Families Citing this family (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5899684B2 (ja) * | 2011-07-11 | 2016-04-06 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5982751B2 (ja) * | 2011-08-04 | 2016-08-31 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| KR101977711B1 (ko) * | 2012-10-12 | 2019-05-13 | 삼성전자주식회사 | 깊이 센서, 이의 이미지 캡쳐 방법, 및 상기 깊이 센서를 포함하는 이미지 처리 시스템 |
| WO2014147957A1 (ja) * | 2013-03-21 | 2014-09-25 | パナソニック株式会社 | 画像処理方法及び画像処理装置 |
| JP6182396B2 (ja) * | 2013-08-30 | 2017-08-16 | 日立オートモティブシステムズ株式会社 | 撮像装置 |
| JP2015114307A (ja) * | 2013-12-16 | 2015-06-22 | ソニー株式会社 | 画像処理装置と画像処理方法および撮像装置 |
| JP6481375B2 (ja) | 2014-02-27 | 2019-03-13 | 株式会社リコー | 情報処理システム、情報処理方法、プログラム、および情報処理装置 |
| USD817353S1 (en) * | 2014-03-07 | 2018-05-08 | Sony Corporation | Display panel or screen with an icon |
| US9762895B1 (en) * | 2014-03-11 | 2017-09-12 | Rockwell Collins, Inc. | Dual simultaneous image presentation for a three-dimensional aviation display |
| JP6391316B2 (ja) * | 2014-06-25 | 2018-09-19 | キヤノン株式会社 | 撮像装置 |
| CN104238133A (zh) * | 2014-09-19 | 2014-12-24 | 西安中科晶像光电科技有限公司 | 一种基于偏振3d的立体桌面显示系统 |
| KR102299575B1 (ko) * | 2015-03-09 | 2021-09-07 | 삼성전자주식회사 | 위상 검출 픽셀들로부터 깊이 맵을 생성할 수 있는 이미지 신호 프로세서와 이를 포함하는 장치 |
| CN104967769B (zh) * | 2015-07-16 | 2019-05-17 | 深圳中安高科电子有限公司 | 一种车底扫描系统和方法 |
| CN105223756B (zh) * | 2015-10-06 | 2018-03-09 | 瑞声光电科技(常州)有限公司 | 阵列式镜头模组 |
| KR102470377B1 (ko) * | 2015-12-31 | 2022-11-23 | 엘지디스플레이 주식회사 | 개인 몰입형 기기의 표시장치 |
| US10003783B2 (en) * | 2016-02-26 | 2018-06-19 | Infineon Technologies Ag | Apparatus for generating a three-dimensional color image and a method for producing a three-dimensional color image |
| WO2017151660A1 (en) * | 2016-02-29 | 2017-09-08 | Tetravue, Inc. | 3d imaging system and method |
| US20170289529A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Anaglyph head mounted display |
| JP2018029280A (ja) * | 2016-08-18 | 2018-02-22 | ソニー株式会社 | 撮像装置と撮像方法 |
| JP7040447B2 (ja) * | 2016-08-24 | 2022-03-23 | ソニーグループ株式会社 | 画像処理装置および情報生成装置と情報生成方法 |
| WO2018179671A1 (ja) * | 2017-03-27 | 2018-10-04 | ソニー株式会社 | 画像処理装置と画像処理方法および撮像装置 |
| CN109509146B (zh) | 2017-09-15 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 图像拼接方法及装置、存储介质 |
| CN112106350A (zh) * | 2018-05-18 | 2020-12-18 | 索尼公司 | 固态成像装置、用于信息处理的装置和方法以及校准方法 |
| WO2020044928A1 (ja) * | 2018-08-31 | 2020-03-05 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子、撮像装置および撮像方法 |
| JP7325949B2 (ja) * | 2018-11-22 | 2023-08-15 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及び電子機器 |
| USD912684S1 (en) * | 2019-03-25 | 2021-03-09 | Warsaw Orthopedic, Inc. | Display screen with graphical user interface for medical treatment and/or diagnostics |
| USD923639S1 (en) * | 2019-03-25 | 2021-06-29 | Warsaw Orthopedic, Inc. | Display screen with graphical user interface for medical treatment and/or diagnostics |
| CN112526801B (zh) * | 2019-09-03 | 2022-01-25 | 宏达国际电子股份有限公司 | 双镜头成像模块及其提取方法 |
| US11765470B2 (en) | 2020-10-26 | 2023-09-19 | Samsung Electronics Co., Ltd. | Pixel array including evenly arranged phase detection pixels and image sensor including the pixel array |
| CN114647092A (zh) * | 2020-12-18 | 2022-06-21 | 深圳光峰科技股份有限公司 | 一种立体显示装置与立体投影显示系统 |
Family Cites Families (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0654991B2 (ja) | 1987-08-25 | 1994-07-20 | シャープ株式会社 | 立体撮影装置 |
| GB2284958A (en) * | 1993-12-14 | 1995-06-21 | Sharp Kk | Laser 3D printer produces autostereoscopic print |
| JP2000112019A (ja) * | 1998-10-08 | 2000-04-21 | Olympus Optical Co Ltd | 電子3眼カメラ装置 |
| US6396873B1 (en) * | 1999-02-25 | 2002-05-28 | Envision Advanced Medical Systems | Optical device |
| US7683926B2 (en) * | 1999-02-25 | 2010-03-23 | Visionsense Ltd. | Optical device |
| JP3863319B2 (ja) * | 1999-06-29 | 2006-12-27 | 富士フイルムホールディングス株式会社 | 視差画像撮像装置及びカメラ |
| US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
| JP4003129B2 (ja) | 2003-01-22 | 2007-11-07 | ソニー株式会社 | 立体撮像装置、立体表示装置、立体撮像表示装置および情報記録方法 |
| JP2004309868A (ja) | 2003-04-08 | 2004-11-04 | Sony Corp | 撮像装置及び立体映像生成装置 |
| EP1754382B1 (en) * | 2004-05-26 | 2010-09-01 | Tibor Balogh | Method and apparatus for generating 3d images |
| US7671321B2 (en) * | 2005-01-18 | 2010-03-02 | Rearden, Llc | Apparatus and method for capturing still images and video using coded lens imaging techniques |
| JP2008107583A (ja) * | 2006-10-26 | 2008-05-08 | Sony Corp | 3次元画像表示装置及びその表示方法 |
| US8787654B2 (en) * | 2008-05-12 | 2014-07-22 | Thomson Licensing | System and method for measuring potential eyestrain of stereoscopic motion pictures |
| US7964840B2 (en) * | 2008-06-19 | 2011-06-21 | Omnivision Technologies, Inc. | High dynamic range image sensor including polarizer and microlens |
| JP2010064531A (ja) * | 2008-09-08 | 2010-03-25 | Toyota Central R&D Labs Inc | 白線検出装置 |
| JP5238429B2 (ja) * | 2008-09-25 | 2013-07-17 | 株式会社東芝 | 立体映像撮影装置および立体映像撮影システム |
| US8203598B2 (en) * | 2009-06-08 | 2012-06-19 | Sony Corporation | Method and apparatus for capturing three-dimensional stereoscopic images |
| US20100321476A1 (en) * | 2009-06-18 | 2010-12-23 | Sony Corporation | Camera for capturing three-dimensional images |
| EP2452228A4 (en) * | 2009-07-10 | 2015-06-03 | Front Street Invest Man Inc As Manager For Front Street Diversified Income Class | METHOD AND APPARATUS FOR GENERATING THREE DIMENSIONAL IMAGE INFORMATION USING A SINGLE D IMAGING COURSE |
| JP5391914B2 (ja) | 2009-08-06 | 2014-01-15 | ソニー株式会社 | 撮像装置および映像記録再生システム |
| CN102342116B (zh) | 2010-01-05 | 2015-01-07 | 松下电器产业株式会社 | 三维摄像装置 |
| JP2011145343A (ja) * | 2010-01-12 | 2011-07-28 | Sony Corp | 鏡筒装置及び立体撮像装置 |
| JP5421829B2 (ja) * | 2010-03-18 | 2014-02-19 | 富士フイルム株式会社 | 撮像装置 |
| JP2011239241A (ja) * | 2010-05-11 | 2011-11-24 | Panasonic Corp | 3次元撮像装置 |
| JP5742281B2 (ja) * | 2011-02-17 | 2015-07-01 | ソニー株式会社 | 撮像装置、画像処理方法およびプログラム |
| JP2012203274A (ja) * | 2011-03-28 | 2012-10-22 | Sony Corp | 撮像装置および電子機器 |
| WO2012174401A2 (en) * | 2011-06-16 | 2012-12-20 | Lenny Lipton | Stereoscopic camera with polarizing apertures |
| JP5899684B2 (ja) * | 2011-07-11 | 2016-04-06 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5982751B2 (ja) | 2011-08-04 | 2016-08-31 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5831024B2 (ja) * | 2011-08-04 | 2015-12-09 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5831105B2 (ja) * | 2011-09-30 | 2015-12-09 | ソニー株式会社 | 撮像装置及び撮像方法 |
| JP2013089981A (ja) | 2011-10-13 | 2013-05-13 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
| US9177983B2 (en) * | 2012-01-23 | 2015-11-03 | Omnivision Technologies, Inc. | Image sensor with optical filters having alternating polarization for 3D imaging |
| US9240065B2 (en) | 2012-02-09 | 2016-01-19 | Sony Corporation | Image processing apparatus and image processing method |
| WO2013128765A1 (ja) | 2012-02-27 | 2013-09-06 | ソニー株式会社 | 画像処理装置、画像処理方法およびコンピュータプログラム |
| WO2013133057A1 (ja) | 2012-03-07 | 2013-09-12 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
| JP5953916B2 (ja) | 2012-05-02 | 2016-07-20 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
-
2011
- 2011-08-04 JP JP2011171039A patent/JP5982751B2/ja not_active Expired - Fee Related
-
2012
- 2012-07-17 US US13/550,804 patent/US8982190B2/en not_active Expired - Fee Related
- 2012-07-30 CN CN201210270094.5A patent/CN102917235B/zh not_active Expired - Fee Related
- 2012-07-30 CN CN201610239453.9A patent/CN105872525B/zh not_active Expired - Fee Related
-
2014
- 2014-12-09 US US14/564,234 patent/US9118904B2/en not_active Expired - Fee Related
-
2015
- 2015-07-01 US US14/789,425 patent/US9798155B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| CN105872525A (zh) | 2016-08-17 |
| US20150301351A1 (en) | 2015-10-22 |
| CN105872525B (zh) | 2018-01-12 |
| US9798155B2 (en) | 2017-10-24 |
| US20150156476A1 (en) | 2015-06-04 |
| CN102917235B (zh) | 2016-05-18 |
| US8982190B2 (en) | 2015-03-17 |
| JP2013038503A (ja) | 2013-02-21 |
| US9118904B2 (en) | 2015-08-25 |
| CN102917235A (zh) | 2013-02-06 |
| US20130033575A1 (en) | 2013-02-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5982751B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| JP5831024B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| JP5899684B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| JP5640143B2 (ja) | 撮像装置及び撮像方法 | |
| JP5284306B2 (ja) | 立体撮像装置、ゴースト像処理装置およびゴースト像処理方法 | |
| JP6131545B2 (ja) | 画像処理装置、撮像装置および画像処理プログラム | |
| JP6036840B2 (ja) | 撮像装置、画像処理装置、撮像装置の制御プログラムおよび画像処理装置の制御プログラム | |
| JP5982907B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| JP6004741B2 (ja) | 画像処理装置およびその制御方法、撮像装置 | |
| JP6070061B2 (ja) | 画像処理装置、撮影装置、画像処理方法およびプログラム | |
| JP6255753B2 (ja) | 画像処理装置および撮像装置 | |
| JP6230266B2 (ja) | 撮像装置、画像処理装置、および制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140606 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150327 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150414 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150611 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160122 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160718 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5982751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |