[go: up one dir, main page]

JP2015082288A - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP2015082288A
JP2015082288A JP2013221091A JP2013221091A JP2015082288A JP 2015082288 A JP2015082288 A JP 2015082288A JP 2013221091 A JP2013221091 A JP 2013221091A JP 2013221091 A JP2013221091 A JP 2013221091A JP 2015082288 A JP2015082288 A JP 2015082288A
Authority
JP
Japan
Prior art keywords
point
image
information processing
unit
contour line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013221091A
Other languages
English (en)
Other versions
JP5818857B2 (ja
Inventor
武本 和樹
Kazuki Takemoto
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013221091A priority Critical patent/JP5818857B2/ja
Priority to US14/521,344 priority patent/US9767611B2/en
Priority to EP14190337.7A priority patent/EP2866201B1/en
Publication of JP2015082288A publication Critical patent/JP2015082288A/ja
Application granted granted Critical
Publication of JP5818857B2 publication Critical patent/JP5818857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】 被写体の奥行き値を精度よく推定する。【解決手段】 複数の視点から被写体を撮像した各画像から、前記被写体の輪郭線を抽出し、抽出された輪郭線それぞれにおいて、輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を各画像間で対応付け、対応付けられた点の3次元座標を導出し、該導出された点の3次元座標に基づいて、被写体を近似する平面を導出し、前記輪郭線上の点のうち、対応づけられていない点の奥行き値を、対応づけられた点の3次元座標と前記導出された平面とに基づいて推定する。【選択図】 図1

Description

本発明は、情報処理装置およびその制御方法に関する。
近年、コンピュータによって作られる仮想空間と現実空間とを、繋ぎ目なく融合する複合現実感(Mixed Reality;MR)技術が注目されている。
MR技術は、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援や患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待されている。
仮想物体が違和感なく現実空間に実在するように利用者が感じるためには、現実物体と仮想物体の前後関係を正しく表現する必要がある。これは「オクルージョン問題」とも呼ばれ、特にカメラで撮影した画像に仮想物体を重畳させるビデオシースルー型のMRシステムでも重要な課題となる。
現実物体と仮想物体の前後関係を正しく表現するためには、現実物体および仮想物体の3次元位置情報をそれぞれ求め、求められた現実物体の3次元位置情報と仮想物体の3次元位置情報を比較し、現実物体が手前になる場合は、撮影した画像を手前に表示する。また、仮想物体が手前にある場合は、仮想物体を手前に表示するという処理をすればよい。この処理において、仮想物体は既知の3次元モデルがあるため、視点に対する3次元位置は算出可能である。しかし、現実物体を撮影しただけでは、現実物体の視点に対する3次元位置は未知であるため、現実物体の3次元位置を求めることが必要となる。
以下では、現実物体の3次元位置を計測する技術について述べる。
非特許文献1では、キーフレームと呼ばれる背景画像と現在のカメラの画像との差分によって移動物体の検出を行い、検出される移動物体の輪郭線上の点をマッチングしている。境界上の点のみをマッチングするため、高速に処理することができる。
次に、非特許文献1において、対象物体の奥行きを計測する方法について説明する。非特許文献1の手法では、以下のような方法で、対象物体の奥行きを推定している。
1.ステレオカメラで撮影した対象物体が映る左右の画像に対して、背景画像との差分により対象物体の左右の画像における輪郭線を特定する。
2.左の画像で領域の輪郭線を等間隔に分割した後、曲率の高い点を算出してサンプリングポイントを設定する。
3.左の画像で設定したサンプリングポイントに対応するエピポーラ線を右の画像に投影し、エピポーラ線と輪郭線との距離が最小となる点を対応点とする。
4.求めた対応点の左右における画像座標とステレオカメラの既知の相対位置姿勢情報に基づいて、対応点の奥行き値を算出する。
5.奥行き値を持つ複数対応点の間にある、輪郭線上の線分の奥行き値は、両端の対応点の奥行き値を線形補間することにより求める。なお、この処理は左右の画像それぞれの輪郭線に対して処理を行う。
6.輪郭線上の全ての奥行き値を求めたら、輪郭線内部の領域の奥行き値を求めるため、領域の両端の輪郭線の奥行き値を水平方向に線形補間する。なお、この処理も左右の画像それぞれの輪郭線に対して処理を行う。
林建一,加藤博一,西田正吾,"境界線ベースステレオマッチングを用いた実物体と仮想物体の前後判定",日本バーチャルリアリティ学会論文誌,Vol.10,No.3,pp.371−380,2005
しかしながら、以下のような条件1と条件2が重なると、非特許文献1で算出される対象物体において推定する奥行き値に誤差が生じる。
条件1:図9のように、指先などの輪郭線の曲率の高い部位の奥行き方向901が視軸方向902に近い場合、すなわち、指先がカメラの奥行き方向に向いている場合
条件2:図8のように輪郭線の曲率の高い指先801付近に対応点がない場合など、奥行き値が、両端の対応点802,803の奥行き値の線形補間によって決定される場合
この2つの条件がともに満たされる場合に誤差が生じる理由を図10、図12で説明する。図10は上記条件1と条件2を同時に満たしている場合のカメラ100、110と手150の関係を示す模式図である。図12は図10の指先部分801を拡大した模式図である。
指先801の先端部分を単純にカメラからの奥行き値で線形補間してしまうと、指先部分が図10で示す1001の奥行き値となり、指先801に対して誤差が発生する。なぜならば、指先801の奥行き値1001は、撮像装置100よりも手前にある両端の対応点802と803の奥行き値を補間して求められるためである。すなわち、本来の指先801の奥行き値よりも対応点802と803の奥行き値が常に手前の奥行き値となるため、線形補間した結果も指先801の奥行き値に対して常に誤差を生じることになる。
このように、指先付近に誤差が生じることによって、例えば指先801と仮想物体との干渉判定をする場合に、指先801と仮想物体が接触しているはずなのに接触していないと、誤判定される可能性がある。
本発明は、上記の課題に鑑みてなされたものであり、精度よく被写体の奥行き値を推定することを目的とする。
上記目的を達成するために、本発明の情報処理装置は、複数の視点から被写体を撮像した各画像から、前記被写体の輪郭線を抽出する抽出手段と、前記各画像で抽出された輪郭線それぞれにおいて、前記輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を前記各画像間で対応付ける対応付け手段と、前記対応付けられた点の3次元座標を導出し、該導出された点の3次元座標に基づいて、前記被写体を近似する平面を導出する近似平面導出手段と、前記輪郭線上の点のうち、前記対応付け手段によって対応づけられていない点の奥行き値を、前記対応づけられた点の3次元座標と前記導出された平面とに基づいて推定する推定手段とを備えることを特徴とする。
本発明によれば、精度よく被写体の奥行き値を推定することができる。
第1の実施形態における、画像処理装置の構成を示すブロック図。 第1の実施形態における、リアルタイム3次元形状推定装置のハードウェア構成を示すブロック図。 第1の実施形態における、リアルタイム3次元形状推定装置の処理を示すフローチャート。 第1の実施形態における、リアルタイム3次元形状推定装置の手の3次元形状の推定処理を示すフローチャート。 第1の実施形態における、リアルタイム3次元形状推定装置の手の3次元形状の推定処理を示すフローチャート。 第2の実施形態における、リアルタイム3次元形状推定装置の手の3次元形状の推定処理を示すフローチャート。 第1の実施形態における、手の輪郭線上の3次元位置を求めるときの算出方法を説明する模式図。 従来の課題の条件2を説明するための模式図。 従来の課題の条件1を説明するための模式図。 従来技術で発生する奥行き値の誤差を説明するための模式図。 第1の実施形態における近時平面を説明するための模式図。 従来技術で発生する奥行き値の誤差を説明するための模式図。 第1の実施形態における近時平面を説明するための模式図。 第1の実施形態おける課題を説明するための模式図。 第3の実施形態における対応点のグループ化を説明するための模式図。 第3の実施形態における複数の近時平面を説明するための模式図。
(第1の実施形態)
以下、添付図面を参照して、本発明を適用した好適な実施形態に従って詳細に説明する。
本実施形態では、体験者の手(被写体)150を撮像装置(ステレオカメラ)100、110で撮影して手の領域の奥行き値を推定し、表示部208にCGモデル160と手150との前後関係に応じてCGモデル160の画像を加工して実写画像と合成表示する例について説明する。なお、例えば、撮像装置はHMD(ヘッドマウントディスプレイ)またはHHD(ハンドヘルドディスプレイ)に備えつけられているものがあげられるが、これに限るものではない。
図1は、本実施形態における情報処理装置の機能構成を示すブロック図である。
画像取得部1000は、本実施形態では、撮像装置100および撮像装置110により撮像された複数のフレーム画像を取得する。撮像装置100と撮像装置110は互いに固定され、撮像される。撮像装置100および撮像装置110によって撮像された映像には、操作者の手150および撮像装置100および110の位置姿勢を計測するためのマーカー170が映り込んでいるものとする。取得したフレーム画像を順次画像記憶部1010に格納する。画像取得部1010は、撮像装置の出力がNTSC信号などのアナログ出力であればアナログビデオキャプチャボードによって実現される。また撮像装置の出力がIEEE1394などのデジタル出力であれば、例えばIEEE1394インタフェースボードによって実現される。また、予め記憶装置に記憶してある静止画像や動画像のデジタルデータを読み出しても良い。
画像記憶部1010は、画像取得部1000で受けた映像を記憶する。画像記憶部1010は、RAMや外部記憶装置などにより構成されている。画像取得部1000からは、例えば1/30秒で画像データが送信される。
物体形状推定部1020は、画像記憶部1010に記憶されているステレオ画像を取得し、手150の3次元形状を算出する。手150の3次元形状の算出方法については後述する。物体形状推定部1020は、手150の3次元形状をモデル形状記憶部1040に出力する。
モデル形状保持部1040は、CGモデル160の3次元モデルデータおよび、物体形状推定部1020から受けた手150の3次元形状のデータを保持する。モデル形状保持部1040は、RAMや外部記憶装置などにより構成されている。保持しているCGモデル160の3次元モデルデータおよび手150の3次元形状のデータは画像生成部1050に出力する。
位置姿勢推定部1070は、撮像装置100および110の位置姿勢を計測する。本実施形態では、撮像画像に映り込む正方形マーカー170の投影像に基づいて撮像装置の位置姿勢を推定する。例えば、画像を二値化し、四角形の頂点を抽出し、山登り法の繰り返し演算で画像上における投影誤差を最小化してカメラ位置姿勢を推定すればよい。
もちろん、モーションキャプチャ装置や磁気センサーなど、その他の計測方法を用いて撮像装置の位置姿勢を計測してもよい。
画像生成部1050は、モデル形状保持部1040に格納されたCGモデル160と手150の3次元形状、および位置姿勢推定部1070から取得した撮像装置100および撮像装置110の視点位置姿勢に基づいてCGモデル160の画像を生成する。画像生成部1050は、CGモデル160の描画ピクセルにおける手150との前後関係を比較して、CGモデルを描画するかどうかを決定する。すなわち、手150の方がCGモデル160よりも手前にあると判定した場合は、そのピクセルにCGモデル160を描画せず、画像合成部1060で実写映像の手を見せるようにCGモデル160の画像を加工する。
画像合成部1060は、画像記憶部1010に格納されている撮像部100と撮像部110の夫々の画像に対して、画像生成部1050で生成したCGモデル(仮想物体)160の3次元形状の夫々の画像を上書き合成する。生成された合成画像は、ディスプレイ208に出力し、体験者にCGモデル160と手150の前後関係を視覚的に提示する。
画像記憶部1010は、形状推定部1020、位置姿勢推定部1070、画像生成部1050の処理で利用した実写画像を画像合成部1060に入力する。これは、画像生成部1050で生成した3次元形状の画像と画像記憶部1010の画像が同期された状態で、画像合成部1060にて合成するためである。画像合成部1060にて同期した画像を取り扱うためには、形状推定部1020、位置姿勢推定部1070、画像生成部1050のすべての処理を、上記画像取得部からの画像の送信間隔以内(本実施形態では1/30秒以内)で完了させることが好ましい。
図2は、本実施形態の情報処理装置を実現するためのハードウェアを示す模式図である。
CPU201は、RAM205やROM204に格納されているコンピュータプログラムやデータを使ってコンピュータ全体の制御を行う。また、CPUはそれと共に以下の各実施形態で情報処理装置が行うものとして説明する各処理を実行する。
RAM205は、外部記憶装置209や記憶媒体ドライブ203からロードされたコンピュータプログラムやデータを一時的に記憶する。またRAM205は、I/F(インターフェース)202を介して外部から受信したデータを一時的に記憶するためのエリアを有する。更に、RAM205は、CPU201が各処理を実行する際に用いるワークエリアも有する。即ち、RAM9002は、各種エリアを適宜提供することができる。
また、ROM204には、コンピュータの設定データやブートプログラムなどが格納されている。
キーボード207、マウス206は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU201に対して入力することができる。
表示部208は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などで表示することができる。例えば、表示部208には、撮像装置100、110によって撮像された現実空間の画像と仮想画像とを合成した合成画像を表示することができる。
外部記憶装置209は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置209には、OS(オペレーティングシステム)や、情報処理装置が行う各処理をCPU201に実行させるためのプログラムやデータが格納されている。図1の場合、これに係るコンピュータプログラムには、画像取得部1000、物体形状推定部1020、画像生成部1050、位置姿勢推定部1070、画像合成部1060のそれぞれに対応する機能が含まれている。外部記憶装置209に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM205にロードされる。CPU201はこのロードされたプログラムやデータを用いて処理を実行することで、情報処理装置が行う各処理を実行することになる。なお、外部記憶装置209は、図1に示したモデル形状記憶部1040や画像記憶部1010として用いても良い。
記憶媒体ドライブ203は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にコンピュータプログラムやデータを書込んだりする。尚、外部記憶装置209に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ203が記憶媒体から読み出したコンピュータプログラムやデータは、外部記憶装置209やRAM205に対して出力される。
I/F202は、撮像装置100、110を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポートにより構成される。I/F202を介して受信したデータは、RAM205や外部記憶装置209に入力される。なお、図1に示した画像取得部1000の機能の一部は、I/F202によって実現される。
バス210は、上述の各構成部をバス信号によって繋げるものである。
(フローチャート)
次に、本実施形態における位置姿勢計測方法の処理手順について説明する。図3は、本実施形態における処理手順を示すフローチャートである。
まず、ステップS3010において、画像取得部1000が、撮像部100および撮像部110から画像を取得する。
ステップS3020において、画像記憶部1010が、画像取得部1000から取得したステレオ画像を一時的にメモリに記録する。
ステップS3030において、物体形状推定部1020が、画像記憶部1010のステレオ画像に映り込んだ手150の領域を抽出し、手の3次元形状を推定する。本ステップの詳細については後述する。
ステップS3040において、位置姿勢推定部1070が、少なくとも撮像部100または撮像部110のどちらか1つの位置姿勢を計測する。推定した位置姿勢は、画像生成部1050でCGモデルのレンダリングに用いられる。
ステップS3050において、画像生成部1050が、モデル形状記憶部1040に格納されている手150の3次元形状とCGモデル160の形状と、位置姿勢推定部1070で求めた撮像手段の位置姿勢を取得する。さらに、画像生成部1050が、撮像手段の位置姿勢から見たCGモデル160の画像を描画する。ただし、描画するにあたり、手150とCGモデル160との撮像手段からの距離を描画ピクセルごとに判別し、手150が手前にあるピクセルについては、CGモデル160を描画せず、透明の状態にする。すなわち、画像合成部1060で実写映像を手前に見せることで、手150の画像を体験者に提示することができる。
ステップS3060において、画像合成部1060が、ステップS3020で記録してある実写映像の上にステップS3050で生成したCGモデル160の画像を上書きして合成する。
ステップS3070において、ディスプレイ208が、ステップS3060で生成した合成画像をディスプレイに出力する。
次に図4のフローチャートを用いて、ステップS3030における手の3次元形状の推定の詳細を説明する。
ステップS4010において、物体形状推定部1020が画像記憶部1010に記録されている撮像手段100および撮像手段110のそれぞれの画像に対して、対象物体である手150の輪郭線を抽出する。
本実施形態では、例えば、非特許文献1で例示されるような、あらかじめ取得した背景の画像と現在の実写画像との差分を抽出することにより、前景となる手150の領域を抽出する。抽出した手150の領域から輪郭線部分の画像座標(X,Y)を輪郭線座標リストとしてRAM205上に保持しておく。
なお、本実施形態は非特許文献1で例示される背景画像との差分により輪郭線を抽出することに限定されるものではなく、例えば、画素の色情報に基づいて対象物体領域を検出し、輪郭線を求めてもよい。すなわち、手の場合は、手の肌色情報をあらかじめ登録しておき、実写画像から肌色情報に一致する色領域を対象物体領域として検出する方法である。
ステップS4020において、物体形状推定部1020がステップS4010で算出した輪郭線座標リストに対し、等間隔に線分を分割する。さらに分割した輪郭線の線分それぞれにおいて、曲率が一番高い画像座標値をサンプリングポイントとして設定(選択)する。なお、このサンプリングポイントは、撮像手段100および撮像手段110の画像それぞれに対して処理を実行する。
ここで、輪郭線を等間隔で分割するときに、曲率の高い指先のような領域が分割点となってしまうと、指先部分がサンプリングポイントとして検出されない場合がある。この状況が、課題で提示した条件2で示すような曲率が高い領域に対応点が存在しない状況となる。
なお、本実施形態は、輪郭線を等分割し、曲率が一番高い画像座標値をサンプリングポイントとすることに限定されるものではなく、輪郭線の奥行きを求める処理において、負荷を軽減するようなサンプリング方法であれば適用可能である。例えば、画面上の垂直方向を所定の間隔で分割するような水平線を配し、輪郭線との交点をサンプリングポイントとする方法でもよい。
ステップS4030において、物体形状推定部1020がステップS4020で算出した左右の画像におけるサンプリングポイントを各画像間でステレオマッチング処理により対応付ける。このステレオマッチング処理は、例えば、非特許文献1で記載しているようなマッチング処理を利用すればよい。すなわち、左眼用の画像におけるサンプリングポイントを、右眼用の画像におけるサンプリングポイントと対応付けるために、右眼上にエピポーラ線(走査線)を引き、エピポーラ線に近い輪郭線のサンプリングポイントを対応点とすればよい。
なお、本実施形態は、ステレオマッチングにエピポーラ線を利用することに限定されるものではなく、サンプリングポイントの周辺領域の画像相関を探索する方法など、対応点を求められる方法であれば適用可能である。
さらに物体形状推定部1020は、求めた対応点の対応情報と、撮像手段100および110のステレオカメラの左右の相対位置姿勢とカメラ内部パラメーター(レンズ歪み、透視投影変換情報)に基づいて三角測量(図7)を用いて対応点の奥行き値を決定する。対応点すべての奥行き値を算出し、対応点802の撮像手段における3次元位置(X,Y,Z)を対応点リストとしてRAM205上に保持しておく。
ステップS4040において、物体形状推定部1020が、対応点リストに格納されている対応点の3次元位置に基づいて、手150の輪郭線の3次元形状を近似する平面を導出する(近似平面導出)。図11は、輪郭線上の対応点802の3次元位置と近似平面1101の関係を示す模式図である。さらに図13は、図11の指先部分801を拡大した模式図である。
輪郭線1001の3次元形状に近似する平面1101は、対応点リスト内に保持している3次元位置(3次元座標)と平面との距離(図13の1301および1302など)が最小になるような平面のパラメーターを最小二乗近似式で求めればよい。ここで、平面のパラメーターとは、平面の方程式ax+by+cz+d=0のa,b,cの法線ベクトルおよび定数dを指す。
ただし、本実施形態は、近接する平面1101を導出する方法として、最小二乗近似の方法を用いることに限定されるものではなく、輪郭線の3次元形状に近い平面を算出できる方法であれば適用可能である。
ステップS4050では、物体形状推定部1020が、輪郭線上の対応点の奥行き値を利用して、輪郭線座標リストの奥行き値を算出する。このとき、輪郭線の奥行き値を両端の対応点802と803における奥行き値1002、1003で線形補間してしまうと、課題で前述したように輪郭線のうち曲率が高い領域に誤差が発生する。
この課題を解決するために、両端の奥行き値1002、1003を線形で補間するのではなく、ステップS4040で求めた輪郭線の3次元形状を近似した平面1101と対応点802との距離1301、1302を補間し、距離から奥行き値に変換する。
まず、両端の対応点802および803と近似平面1101の距離を求める。点(x, y, z)と平面ax+by+cz+d=0との距離は、以下の式1で求められる。
Figure 2015082288
すなわち、式1を用いて対応点802と近似平面1101との距離1301および対応点803と近似平面1101との距離1302を求める。求めた両端の対応点における距離1301、1302を、両端の対応点で囲む輪郭線座標リストの座標値に対応付けて1301および1302の値を線形補間する。
ステップS4060では、物体形状推定部1020が、ステップS4050で線形補間した近似平面1101からの距離を奥行き値に変換する。
近似平面からの距離のままでは対象物体の奥行き値を求められないため、撮像手段を基準とする座標系(撮像座標系と呼ぶ)の奥行き値に変換する。ここでは、説明のため、図13に示す輪郭線1001上の点1304に注目して、近似平面1101からの距離1303を撮像座標系の奥行き値に変換する処理を説明する。
1.撮像手段の視点位置1305(Oとする)と撮像手段の投影面1002上における輪郭線の画像座標1307(Pとする)を通る直線1306(Lとする)を求める。ここで、Pの座標値を (v, v, −1)とする。
2.近似平面1101と並行で、補間されて算出された距離1303(距離をkとする)だけ離れている平面Kを求める。この平面は、ax+by+cz+d+k=0で表わせる。
3.平面Kの法線Nと直線Lのなす各をαとすると、ベクトルOP(ベクトルjとする)と法線N(ベクトルnとする)は以下の式2で表わせる。ここで法線の大きさは1である。
Figure 2015082288
4.直線Lと、平面Kの交点が求めたい点1304(Pとする)である。この交点Pを求めるために、視点Oから平面Kへ垂線を下ろし、点Aとする。ここで、平面Kの法線Nと直線Lのなす角をαとすると、三角形OAPは直角三角形であるため、以下の式3で表わせる。
Figure 2015082288
また、OAの距離は、平面の式ax+by+cz+d+k=0より、d+kで表わせるため、以下の式4で表わせる。
Figure 2015082288
さらに、直線OPは、以下の式5で表わせる。
Figure 2015082288
ここで、式2を代入すると、以下の式6となる。
Figure 2015082288
すなわち、近似平面1101からの距離1303(輪郭線1001上の点1304の補間値)を撮像座標系の奥行き値に変換すると、以下の式7で表わせる。
Figure 2015082288
ステップS4070では、物体形状推定部1020が、ステップS4060で求めた輪郭線上の奥行き値を利用して、対象物体である手150の輪郭線内部の奥行き値を補間する。補間方法は非特許文献1の方法と同様に、領域の両端の輪郭線の奥行き値を水平方向に線形補間すればよい。
以上の処理により、対象物体の輪郭線の曲率が高い領域がカメラの奥行き方向に伸びている場合で、かつ、該領域付近に奥行き値をもつ対応点が存在しない場合においても、対象物体の近似平面との距離を補間することで精度よく奥行き値を推定することができる。
(第2の実施形態)
第1の実施形態では、ステップS4050で輪郭線を補間するときに、対応点間の全ての輪郭線を近似平面1101との距離で線形補間していた。
しかし、図14に示すように撮像手段100の視点位置1305から投影面上での輪郭線の画像座標(撮像画像上の座標)1307を通る直線1401と、近似平面1101の法線方向1402のなす角1403が90度の場合は、近似平面1101と直線1401が交わらない。すなわち、交点がないため補間する距離が算出できない。
また、直線1401と法線1402のなす角1403が90度に近い場合であっても、交点が手150の指先よりも無限遠に近い位置となり、距離の線形補間が奥行き値の線形補間よりも誤差が大きくなる。
第2の実施形態では、補間する画像座標ごとに直線1401と法線1402の角度1403をチェックし(角度算出)、90度に近い場合は、奥行き値の線形補間に戻す処理を行う。
第2の実施形態では、第1の実施形態で示した情報処理装置の構成に変更はなく、物体形状推定部1020で実行する処理の一部を変更すればよい。
(フローチャート)
本実施形態における物体形状推定部1020の処理を図5のフローチャートを用いて説明する。なお、図5のフローチャートにおいて、第1の実施形態と同じ処理を実行するブロックについては同一の番号で示し、説明を省略する。
図5のフローチャートでは、第1の実施形態で示したフローチャートに対してステップS5010およびステップS5020を追加すればよい。
ステップS5010において、物体形状推定部1020が、補間の対象となる輪郭線の画像座標1307に対して、撮像手段100の視点位置1305から画像座標1307を通る直線1401と、近似平面1101の法線方向1402のなす角1403を算出する。さらに、角度1403が65度未満であるかどうかを判定する。なお、本実施形態では、判定する角度を65度としているが、本実施形態は直線1401と近似平面1101との交点が無限遠に近くならない範囲で変更することができる。
物体形状推定部1020は、補間の対象となる輪郭線の画像座標リスト全てに対して、各々65度未満かどうかチェックし、65度を超えるものがあれば、ステップS5020の奥行き値で補間する処理を実行する。一方、65度未満であれば、ステップS4050の処理に移り、近似平面1101の距離を補間する。
ステップS5020において、物体形状推定部1020が、両端の対応点の奥行き値を取得し、両端の対応点との長さに応じて線形補間する。線形補間した結果の奥行き値を輪郭線座標リストの座標値に対応付けて出力する。
以上のように、本実施形態では、直線1401と、近似平面1101の法線方向1402のなす角1403に応じて補間方法を切り替えることにより、近似平面1101と直線1401が交わらない場合にも精度よく奥行き値を推定することができる。
(変形例)
第2の実施形態では、1つの閾値に対して、距離の線形補間をするか奥行き値の線形補間をするかを決定していたが、本変形例においては、2つの閾値を設けて、角度1403が2つの閾値の間にある場合は、角度に応じて2つの補間方法で算出した値を線形補間する方法を例示する。
角度1403が2つの閾値の間にある場合は、各々の奥行き値を角度のパラメーターで線形補間することにより、隣接する画像座標が補間方法の違い(近似平面とのなす角度の違い)により生じる奥行き値のギャップを軽減できる。すなわち、輪郭線全体の滑らかさを保つことを目的としている。
本変形例では、第1の実施形態および第2の実施形態で示した情報処理装置の構成に変更はなく、物体形状推定部1020で実行する処理の一部を変更すればよい。
(フローチャート)
本変形例における物体形状推定部1020の処理を図6のフローチャートを用いて説明する。なお、図6のフローチャートは、第1の実施形態および第2の実施形態と同じ処理を実行するブロックについては同一の番号で示し、説明を省略する。
図6のフローチャートでは、第2の実施形態で示したフローチャートに対してステップS6010からステップS6040までの処理を追加すればよい。
ステップ6010において、物体形状推定部1020が、角度1403を算出し、70度(第1の値)未満かどうかを判定する。70度未満であれば、ステップS4050に処理を移し、平面との距離の線形補間を実施する。70度以上であればステップS6020に処理を移す。
ステップ6020において、物体形状推定部1020が、角度1403を参照し、60度(第2の値)以上であるかどうかを判定する。60度以上であればステップS5020に処理を移し、奥行き値を線形補間する。60度未満であれば、ステップS6030に処理を移す。
ステップ6030では、物体形状推定部1020が、角度1403を参照し、60度以上かつ70度未満であるかどうかを判定する。角度1403が2つの閾値内であればステップS6040に処理を移す。2つの閾値外である場合はステップS4070に処理を移す。
ステップ6040では、物体形状推定部1020が、ステップS4060で求めた平面との距離で求めた奥行き値(Dとする)と、ステップS5020で求めた線形補間の奥行き値(Dとする)とを角度1403の値に応じて線形補間した結果を奥行き値とする。例えば、線形補間する画像座標1307において、直線1401と近似平面の法線1402のなす角度1403をαとすると、以下の式8で求める奥行き値を得ることができる。
Figure 2015082288
以上のように、本変形例では、2つの補間方法を2つの閾値を利用して切り替えることで、1つの閾値を利用したときの閾値付近で生じる奥行き値のギャップを軽減し、3次元の輪郭線を滑らかにすることができる。
(第3の実施形態)
第1の実施形態では、ステップS4040の近似平面推定では、ステレオマッチングで求めた輪郭線上のすべての対応点を利用して近似平面を求めた。それに対し、本実施形態では、対象物の形状に応じて複数の近似平面を設ける。
本実施形態では、輪郭線上の対応点を求めた後、図15で示すように隣接する対応点を5個ずつグループ化し、それぞれのグループに属する対応点(例えば1501で示す点線に含まれる対応点)のみから近似平面を求める。このように、輪郭線上の対応点をグループすることにより、近似平面を分割し、図16で示すように、より手150の形状に近い近似平面1601、1602上で距離の線形補間が行われる。すなわち、近似平面の距離の線形補間で求められる奥行き値の誤差を低減する効果がある。
本実施形態では、第1の実施形態で示した情報処理装置の構成に変更はなく、物体形状推定部1020で実行する処理の一部を変更すればよい。
本実施形態における物体形状推定部1020の処理は、ステップS4040の近似平面の推定、ステップS4050の補間処理、ステップS4060の奥行き値に変換する部分を、以下のように変更すれば実現可能である。
まず、ステップS4040では、物体形状推定部1020が、ステップS4030で算出した対応点のうち、隣接する5個を1グループとみなしてグループと対応点を対応付ける。次に、1グループに属する対応点のみから近似平面を算出する。なお、本発明は1グループの対応点を5個に限定するものではなく、対象とする形状や計算コストの許容量に応じて個数を変更してもよい。
次に、ステップS4050では、補間の対象となる輪郭線上の画像座標が、輪郭線上で一番近い対応点を求め、その対応点が属するグループで求めた近似平面を利用して距離を算出すればよい。
次に、ステップS4060では、ステップS4050と同様に、補間の対象となる輪郭線上の画像座標が、輪郭線上で一番近い対応点を求め、その対応点が属するグループで求めた近似平面を利用して奥行き値に変換すればよい。
以上のように、本実施形態では、1つの輪郭線に対して複数の近似平面を算出することにより、精度よく奥行き値を推定することができる。
(他の実施形態)
上記の各実施形態で説明した情報処理装置の各構成要素は全てハードウェアで構成されているとして説明した。しかし、その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、このソフトウェアを実行させることで、このコンピュータは、上記実施形態で説明した位置姿勢計測装置の動作を行うことになる。
上記目的を達成するために、本発明の情報処理装置は、例えば、撮像装置によって、複数の視点から被写体を撮像した各画像から、前記被写体の輪郭線を抽出する抽出手段と、前記各画像で抽出された輪郭線それぞれにおいて、前記輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を前記各画像間で対応付ける対応付け手段と、前記対応付けられた点の3次元座標を導出し、前記対応付けられた点の前記導出された点の3次元座標に基づいて、前記被写体を近似する平面を導出する近似平面導出手段と、記対応づけられた点と前記導出された平面との距離に基づいて、前記輪郭線上の点のうち前記対応付け手段によって対応づけられていない点と前記導出された平面との距離を求めることにより、前記対応づけられていない点の奥行き値を推定する推定手段とを備えることを特徴とする。

Claims (13)

  1. 複数の視点から被写体を撮像した各画像から、前記被写体の輪郭線を抽出する抽出手段と、
    前記各画像で抽出された輪郭線それぞれにおいて、前記輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を前記各画像間で対応付ける対応付け手段と、
    前記対応付けられた点の3次元座標を導出し、該導出された点の3次元座標に基づいて、前記被写体を近似する平面を導出する近似平面導出手段と、
    前記輪郭線上の点のうち、前記対応付け手段によって対応づけられていない点の奥行き値を、前記対応づけられた点の3次元座標と前記導出された平面とに基づいて推定する推定手段とを備えることを特徴とする情報処理装置。
  2. 前記近似平面導出手段で導出される前記輪郭線上の点の奥行き値と前記推定手段で推定される点の奥行き値と仮想物体の奥行き値とに基づいて、前記仮想物体と前記被写体とを合成する合成手段を更に備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記推定手段は、前記対応づけられていない点と前記近似平面との距離を算出し、該算出された距離に基づいて、前記選択されていない画素の奥行き値を推定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記抽出された輪郭線を線分に分割する分割手段を更に有し、
    前記選択手段は、該分割手段に分割された線分のうち、曲率が最も高い線分に属する点を選択することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記各画像上に走査線を設定する設定手段を更に備え、
    前記選択手段は、前記設定された走査線と前記輪郭線との交点を選択することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  6. 前記走査線はエピポーラ線であることを特徴とする請求項1乃至3のいずれか1項または請求項5に記載の情報処理装置。
  7. 前記対応づけられた点の奥行き値を線形補間することにより前記対応づけられていない画素の奥行き値を推定する第2の推定手段と、
    前記撮像装置の視点位置と前記撮像画像上の輪郭線の画像座標とを結んだ直線と、前記近似平面の法線とのなす角を求める角度算出手段と、
    前記算出された角度に応じて、前記推定手段による処理または前記第2の推定手段による処理を選択する選択手段とを更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記選択手段は、前記算出された角度が所定の値よりも大きい場合は、前記第2の推定手段による処理を選択し、前記角度が前記所定の値よりも小さい場合は、前記推定手段による処理を選択することを特徴とする請求項7に記載の情報処理装置。
  9. 前記対応づけられた点をグループ化するグループ化手段を備え、
    前記導出手段は、前記グループ化されたグループごとに、前記被写体を近似する近似平面を導出することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記撮像装置は、ヘッドマウントディスプレイまたはハンドヘルドディスプレイに備えられていることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 複数の視点から被写体を撮像した各画像から、前記被写体の輪郭線を抽出する抽出工程と、
    前記各画像で抽出された輪郭線それぞれにおいて、前記輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を前記各画像間で対応付ける対応付け工程と、
    前記対応付けられた点の3次元座標を導出し、該導出された点の3次元座標に基づいて、前記被写体を近似する平面を導出する近似平面導出工程と、
    前記輪郭線上の点のうち、前記対応付け手段によって対応づけられていない点の奥行き値を、前記対応づけられた点の3次元座標と前記導出された平面とに基づいて推定する推定工程とを備えることを特徴とする情報処理方法。
    情報処理方法。
  12. コンピュータに、請求項1乃至10のいずれか1項に記載の情報処理装置を実行させることを特徴とするプログラム。
  13. 表示装置と、前記表示装置に表示される合成画像を生成する情報処理装置とを含むシステムであって、
    前記表示装置は、
    複数の視点から被写体を含んだ現実空間を撮像する撮像手段と、
    前記撮像された各画像を、前記情報処理装置に出力する第1の出力手段と、
    前記情報処理装置から、前記撮像された現実空間の画像と仮想画像とが合成された合成画像を取得し、前記取得した合成画像を表示する表示手段とを備え、
    前記情報処理装置は、
    前記第1の出力手段を通じて取得した各画像から、前記被写体の輪郭線を抽出する抽出手段と、
    前記各画像で抽出された輪郭線それぞれにおいて、前記輪郭線に含まれる点を少なくとも1つ選択し、該選択された点を前記各画像間で対応付ける対応付け手段と、
    前記対応付けられた点の3次元座標を導出し、該導出された点の3次元座標に基づいて、前記被写体を近似する平面を導出する近似平面導出手段と、
    前記輪郭線上の点のうち、前記対応付け手段によって対応づけられていない点の奥行き値を、前記対応づけられた点の3次元座標と前記導出された平面とに基づいて推定する推定手段と、
    前記推定された輪郭線上の点の奥行き値に基づいて、前記各画像と前記仮想画像とを合成する合成手段と、
    前記表示装置から、前記撮像手段により撮像された現実空間の画像を取得し、前記合成手段によって合成された前記合成画像を前記表示装置へ出力する第2の出力手段とを備えることを特徴とするシステム。
JP2013221091A 2013-10-24 2013-10-24 情報処理装置およびその制御方法 Expired - Fee Related JP5818857B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013221091A JP5818857B2 (ja) 2013-10-24 2013-10-24 情報処理装置およびその制御方法
US14/521,344 US9767611B2 (en) 2013-10-24 2014-10-22 Information processing apparatus and method for estimating depth values using an approximate plane
EP14190337.7A EP2866201B1 (en) 2013-10-24 2014-10-24 Information processing apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221091A JP5818857B2 (ja) 2013-10-24 2013-10-24 情報処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2015082288A true JP2015082288A (ja) 2015-04-27
JP5818857B2 JP5818857B2 (ja) 2015-11-18

Family

ID=51794788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221091A Expired - Fee Related JP5818857B2 (ja) 2013-10-24 2013-10-24 情報処理装置およびその制御方法

Country Status (3)

Country Link
US (1) US9767611B2 (ja)
EP (1) EP2866201B1 (ja)
JP (1) JP5818857B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166915A (ja) * 2016-03-15 2017-09-21 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018088604A (ja) * 2016-11-28 2018-06-07 キヤノン株式会社 画像表示装置、画像表示方法、システム
JP2018195267A (ja) * 2017-05-22 2018-12-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
US10672196B2 (en) 2017-08-31 2020-06-02 Canon Kabushiki Kaisha Information processing apparatus and method of controlling an information processing apparatus that generate, for display, a composed image in which a computer graphics object is overland on a portion of the image
US11393116B2 (en) 2018-08-31 2022-07-19 Canon Kabushiki Kaisha Information processing apparatus, method thereof, and non-transitory computer-readable storage medium
WO2024005356A1 (ko) * 2022-06-29 2024-01-04 삼성전자 주식회사 이미지 표시를 위한 전자 장치 및 그 동작 방법
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof
WO2024134935A1 (ja) * 2022-12-22 2024-06-27 株式会社Jvcケンウッド 三次元情報補正装置及び三次元情報補正方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5914962B2 (ja) * 2010-04-09 2016-05-11 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
US11030778B2 (en) * 2014-03-31 2021-06-08 Healthy.Io Ltd. Methods and apparatus for enhancing color vision and quantifying color interpretation
US10311314B2 (en) 2016-11-23 2019-06-04 Ford Global Technologies, Llc Detection of lane-splitting motorcycles
US10290158B2 (en) 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10509974B2 (en) * 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
KR101904108B1 (ko) * 2017-05-22 2018-10-04 동의대학교 산학협력단 평면 모델링을 통한 깊이 영상의 가변적 블록 부호화 방법 및 장치
FI129042B (en) * 2017-12-15 2021-05-31 Oy Mapvision Ltd Computer vision system with a computer-generated virtual reference object
JP7307592B2 (ja) 2019-05-24 2023-07-12 キヤノン株式会社 計測装置、撮像装置、制御方法及びプログラム
CN112017103B (zh) * 2019-05-31 2025-03-28 三星电子株式会社 插值方法、图形管线和图形处理器
DE112021001440T5 (de) * 2020-03-05 2023-02-09 Fanuc Corporation Dreidimensionales Messgerät, das aus einem von mehreren Kameras aufgenommenen Bild Positionsinformationen für eine Objektoberfläche erzeugt
JP2022133133A (ja) * 2021-03-01 2022-09-13 キヤノン株式会社 生成装置、生成方法、システム、およびプログラム
CN117218146A (zh) * 2023-09-11 2023-12-12 阳光新能源开发股份有限公司 阴影分析方法、装置、设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981755A (ja) * 1995-09-12 1997-03-28 Matsushita Electric Ind Co Ltd 平面推定方法
WO2004072899A1 (ja) * 2003-02-13 2004-08-26 Nec Corporation 成り済まし検出装置、および成り済まし検出方法
JP2011039918A (ja) * 2009-08-17 2011-02-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07234927A (ja) * 1994-02-22 1995-09-05 Toshiba Medical Eng Co Ltd 三次元画像表示装置
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
JP5574852B2 (ja) * 2010-06-30 2014-08-20 キヤノン株式会社 情報処理装置、情報処理方法、システム及びプログラム
US8564620B2 (en) * 2010-10-07 2013-10-22 International Business Machines Corporation Method for automatically adjusting the rendered fidelity of elements of a composition
JP5777507B2 (ja) 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981755A (ja) * 1995-09-12 1997-03-28 Matsushita Electric Ind Co Ltd 平面推定方法
WO2004072899A1 (ja) * 2003-02-13 2004-08-26 Nec Corporation 成り済まし検出装置、および成り済まし検出方法
JP2011039918A (ja) * 2009-08-17 2011-02-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166915A (ja) * 2016-03-15 2017-09-21 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018088604A (ja) * 2016-11-28 2018-06-07 キヤノン株式会社 画像表示装置、画像表示方法、システム
JP2018195267A (ja) * 2017-05-22 2018-12-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
US10672196B2 (en) 2017-08-31 2020-06-02 Canon Kabushiki Kaisha Information processing apparatus and method of controlling an information processing apparatus that generate, for display, a composed image in which a computer graphics object is overland on a portion of the image
US11393116B2 (en) 2018-08-31 2022-07-19 Canon Kabushiki Kaisha Information processing apparatus, method thereof, and non-transitory computer-readable storage medium
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof
WO2024005356A1 (ko) * 2022-06-29 2024-01-04 삼성전자 주식회사 이미지 표시를 위한 전자 장치 및 그 동작 방법
WO2024134935A1 (ja) * 2022-12-22 2024-06-27 株式会社Jvcケンウッド 三次元情報補正装置及び三次元情報補正方法

Also Published As

Publication number Publication date
EP2866201A3 (en) 2015-08-26
US9767611B2 (en) 2017-09-19
EP2866201A2 (en) 2015-04-29
US20150116315A1 (en) 2015-04-30
JP5818857B2 (ja) 2015-11-18
EP2866201B1 (en) 2018-05-02

Similar Documents

Publication Publication Date Title
JP5818857B2 (ja) 情報処理装置およびその制御方法
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5777507B2 (ja) 情報処理装置、情報処理方法、及びそのプログラム
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
US9607439B2 (en) Information processing apparatus and information processing method
TWI520576B (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
JP5845211B2 (ja) 画像処理装置、画像処理方法
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
JP5762600B1 (ja) 情報処理装置及び情報処理方法
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6955369B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
TWI821220B (zh) 影像擷取之設備及方法
JP7042561B2 (ja) 情報処理装置、情報処理方法
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP5631453B2 (ja) 画像処理装置、画像処理方法
CN101164084A (zh) 图像处理方法和图像处理设备
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5597064B2 (ja) 情報処理装置およびその方法
JP7321029B2 (ja) キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150929

R151 Written notification of patent or utility model registration

Ref document number: 5818857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees