JP2005341569A - 物体を含むシーンの様式化された画像を生成する方法 - Google Patents
物体を含むシーンの様式化された画像を生成する方法 Download PDFInfo
- Publication number
- JP2005341569A JP2005341569A JP2005143803A JP2005143803A JP2005341569A JP 2005341569 A JP2005341569 A JP 2005341569A JP 2005143803 A JP2005143803 A JP 2005143803A JP 2005143803 A JP2005143803 A JP 2005143803A JP 2005341569 A JP2005341569 A JP 2005341569A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- depth
- edges
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 144
- 230000007704 transition Effects 0.000 claims description 31
- 238000009877 rendering Methods 0.000 claims description 25
- 238000003708 edge detection Methods 0.000 claims description 11
- 239000003086 colorant Substances 0.000 claims description 10
- 239000000463 material Substances 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000002310 reflectometry Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000009499 grossing Methods 0.000 claims 1
- 230000000873 masking effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 14
- 238000005286 illumination Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000000926 separation method Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 241000196324 Embryophyta Species 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001233988 Erysimum cheiri Species 0.000 description 1
- FHKPLLOSJHHKNU-INIZCTEOSA-N [(3S)-3-[8-(1-ethyl-5-methylpyrazol-4-yl)-9-methylpurin-6-yl]oxypyrrolidin-1-yl]-(oxan-4-yl)methanone Chemical compound C(C)N1N=CC(=C1C)C=1N(C2=NC=NC(=C2N=1)O[C@@H]1CN(CC1)C(=O)C1CCOCC1)C FHKPLLOSJHHKNU-INIZCTEOSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003746 feather Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】カメラを用いてシーンからn枚の入力画像の組を取得する。n枚の入力画像をそれぞれ、カメラの本体の、カメラのレンズの投影中心から異なる位置に取り付けられたn個の光源の組のうちの1つの光源によって照明する。周囲からの光を用いて1枚の画像を照明することができる。n枚の入力画像の組内の特徴を検出する。これらの特徴は、深度エッジ、輝度エッジ、およびテクスチャエッジを含み、深度エッジ、輝度エッジおよびテクスチャエッジ間の定性的な深度の関係を求める。次に、n枚の入力画像の組を1つの出力画像に合成して、検出された特徴を定性的な関係に従って強調する。
【選択図】図1A
Description
図1Aは、本発明によるノンフォトリアリスティック(NPR)画像を生成するためのデジタルカメラ100を示す。カメラ100は複数の光源、たとえば、フラッシュユニット101〜104と、単一のレンズ105とを備える。フラッシュユニット101〜104は、レンズ105の投影中心(COP)106の周囲に分散して配置される。最も良好な結果を得るために、フラッシュユニットはできる限りCOPの近くに配置される。それゆえ、フラッシュユニットをカメラ体の前面107に取り付けることは理に適っている。
図2は、或るシーンの様式化された画像201を生成するための本発明の方法200を示す。様式化とは、本明細書に記載されるように、エッジのような特定の細部を有するあらゆるノンフォトリアリスティック画像が強調され、テクスチャおよび単調な背景のような他の細部が削減、抽象化あるいは他の方法で簡略化されることを意味している。
1組の画像110〜114が、レンズ105の投影中心(COP)106の極めて近くに配置されるフラッシュユニット101〜104を用いて、或るシーンから収集される210。図1を参照されたい。COPとフラッシュユニットとの間の基線150が短いことに起因して、そのシーン内の深度不連続点(エッジ)を表す長細い(a narrow sliver of)影がその画像内の各シルエットエッジ付近に現れる。
図3は、本手法の根底をなすシルエットエッジ画素を検出するための手順300を示す。その概念は驚くほど簡単である。本発明の画像収集過程は照度差ステレオに密接に関連するが、本発明者らが知る限りでは、或るシーン内の影によって反映されるような深度不連続点を検出するためのコンピュータビジョンシステムにおいて照度差ステレオが用いられたことはない。照度差ステレオにより、本発明は、消去の過程によって他のエッジを分類できるようになる。
Ik(x)=μkρkLk(x)・N(x)、そうでない場合には、
Ik(x)=0
ここで、μkという値は光の大きさであり、ρk(x)はシーン内の点Xにおける反射率であり、Lk(x)は正規化された光ベクトルLk(x)=Pk−Xであり、N(x)は面法線であり、それらは全てカメラ座標系内にある。
また、本発明は、テクスチャおよび照明の変動のような、或るシーンのシルエットに関連しない、画像の領域内の細部あるいは複雑な部分を削減するための手順も提供する。シルエットエッジ画素306が与えられるとき、テクスチャエッジに属する画素を特定することができる230。したがって、テクスチャ領域を特定することができる。これらの画素は照明の方向とは無関係である。テクスチャエッジは、最大画像Imax内の輝度エッジから、検出されたシルエットエッジを引いたものである。
シルエットエッジ画素を検出するための本発明による手順は、画像を強調するために用いることができるさらに別の有用な情報も生成する。
より良好なライティングを用いて、コントラストを改善し、背景に対して物体を強調することができる。この手法の成功は一般的に撮影者の技量によるが、本発明は、明らかな幾何に基づく一般的な解決手段を提供する。さらに、光源がカメラのCOPに近いので、本発明による単体で十分な機能を有するカメラ100では、外部光源は不要であり、操作が簡略化される。
シーンの様式化された画像を生成するための本発明の方法は、以下のステップを含む。最初に、カメラのレンズの周囲に位置付けられた複数のフラッシュユニットによって生じるずらした光、および周囲からの光の下でシーンから1組の画像を取得する。これらの画像を処理して、深度エッジ、輝度エッジ、およびテクスチャエッジのような特徴を自動的に検出し、特徴間の定性的な深度の関係を求める。出力画像は、取得した画像の組み合わせであり、検出された特徴を、この検出された特徴および定性的な関係に従って強調し、様式化された画像を提供する。
図5Aおよび図5Bに示すように、深度エッジを検出するための本発明の方法は、本手法の基礎であり、除去過程によって他のエッジを分類することを可能にする。本発明の方法は、影のエピポーラ幾何に関する2つの観測値に基づく。
周囲光で画像I0を取得する。
Pkにある光源で画像Ik.0(k=1,...,n)を取得する。
画像Ik=Ik,0−I0を求める。
全ての画素xについて、Imax(x)=maxk(Ik(x))(k=1,...n)である。
各画像kについて、
比画像Rkを生成する。ここで、Rk(x)=Ik(x)/Imax(x)である。
各画像Rkについて、
エピポールekから各エピポーラ光線を横断する。
負の遷移を有するステップエッジを有する画素yを見つける。
画素yを深度エッジとして指示する。
影のある領域の値が0に近い比画像を生成する。
各比画像上でエピポーラ光線に沿って輝度エッジの検出を実行し、負のステップエッジを深度エッジとして指示する。
n個すべての画像からのエッジマップを合成して、最終的な深度エッジマップを得る。
深度エッジに加えて、本発明では、画像内の照明エッジおよび物質エッジも考慮する。照明エッジは、本発明のカメラに取り付けられたフラッシュユニットではなく周囲光に起因するライティングされた領域と影のある領域との間の境界である。個々の画像Ikは周囲からの照明がなく、周囲照明エッジがない。一般に物質エッジは、照明方向と無関係であるため、除去過程によって分類することができる。物質エッジは、Imaxの輝度エッジから深度エッジを引いたものである。このエッジ分類方式は良好に動作し、調整に最少数のパラメータを伴う。本発明において必要となるパラメータは、深度エッジおよび物質エッジをそれぞれ検出するための比画像およびImax画像の輝度エッジ検出用パラメータのみである。
比Rk(x)は、視点に依存するエッジを有する湾曲した物体の非常に小さく深度の短いエッジである。これは、ドット積((^)Lk(x)・N(x))であり、「反対」側にある光源のドット積の方がより大きいためである。これは次のように表される。
カメラとフラッシュの間の基線距離は長いほど良い。基線が長いほど、画像内に投じられる検出可能な影の幅は広くなるが、影が関連する深度エッジから分離することを回避するには、より短い基線が必要とされる。
図6に示すように、カメラの解像度が限られている場合は、階層的な基線を用いることができる。ここでは、第1のフラッシュユニットの組610がCOP106から第1の距離611のところに配置されて画像FSを取得し、第2のフラッシュユニットの組620が第1の距離よりも大きな第2の距離622に配置されて画像FLを取得する。
画像FSは検出不可能な幅の狭い影を有し、画像FLは検出可能な影を有する。
画像FSは検出可能な幅の狭い影を有し、画像FLは幅の広い影を有する。
画像FSは検出可能な影を有するが、画像FLは、画像FSの影と重なる孤立した影を有する。
画像FSは検出可能な影を有し、画像FLは孤立した影を有するが、画像FSと画像FLの影は重ならない。
一方の画像の画素には現れ、他方の画像には現れない鏡面反射ハイライトは、比画像内に誤った遷移を生じる可能性がある。単一画像内の鏡面反射を検出するための方法はあるが、テクスチャ領域において鏡面反射を確実に検出することは困難である。
輝度勾配Gk(x,y)=∇Ik(x,y)を求める。
勾配の中央値G(x,y)=mediank(Gk(x,y))を見つける。
|∇I’−G|を最小化する画像I’を構成する。
これまで、本発明では、背景に影を投じる深度エッジは有限距離内にあるものと仮定してきた。しかしながら、これは常にそうであるとは限らない。この場合、本発明では、最も外側の深度エッジ、すなわち、前景と遠方の背景とによって共有されるエッジのみが見逃される可能性がある。これは、前景−背景推定技法を用いて容易に検出することができる。画像I0/Imaxの比は背景において1に近く、前景の内部において0に近い。
3Dモデルに基づくNPRは既知であるが、写真については既知ではない。シーンの完全な3D表現がない場合、本発明では、以下の2Dキューを利用して新規のレンダリングアルゴリズムを開発する。すなわち、深度エッジの符号すなわちエッジにおける前景対背景、影の幅に基づく相対的な深度差、符号付きエッジ付近の色、および遮蔽輪郭における滑らかな表面の法線である。
深度エッジピクセルを輪郭につなげ、次に輪郭を平滑化する。T字型接合部において、向きの類似性に基づいて次のエッジ画素を選択する従来の方法とは異なり、本発明では、影からの情報を用いて、接続成分を分解する。
比画像Rk内のエピポーラ光線に沿った負の遷移において、エッジに対して輝度の高い側が前景であり、影のある領域に対応する輝度の低い側が背景である。
図8に示すように、本発明では、ライティング方向に対する深度エッジの向きに応じて深度エッジの幅811〜812を変更することによって、任意の光方向801を解剖部位の出力画像800において伝えることができる。3Dにおけるエッジの向きは、像平面におけるその投影の向きと略同じであるため、幅は、画像空間の法線と所望の光方向とのドット積に比例することができる。
図9に示すように、本発明では、選択された色で深度エッジをレンダリングすることによって元の物体の色を示すことができる。符号付き深度エッジから、固定された画素距離における法線に沿って、別の深度または輝度エッジと交差することなく前景の色を選択する。前景の色を付けられた深度エッジは、分割された入力画像、たとえば周囲からの光で取得された入力画像に重ねてもよい。
シーンの3Dモデルはないため、エッジでない画素をレンダリングするには、取り込んだ2D画像の別々な処理方法が必要である。
滑らかな物体について図10Aおよび図10Bに示すように、深度エッジは、面法線が視野方向に垂直である遮蔽輪郭に対応する。したがって、深度エッジにおける法線は像平面に位置し、他の画素における法線を予測することができる。本発明では、2Dポアソン微分方程式を解くことによって、この疎な補間問題を解くことができる。本発明の方法は、Johnston著「Lumo: illumination for cel animation」(Proceedings of the second international symposium on Non-photorealistic animation and rendering, ACM Press, PP. 45-ff, 2002)によって記載されるようなオーバー−アンダーマットを生成するための手動の方法を自動化する。本発明の場合、符号付き深度エッジにより法線の補間が可能になり、その一方で、深度エッジにおける法線の不連続点を維持して、ライティング方向から離れた向きにある表面1001を強調する。
プロの写真家は、局部光を用いて、形状の境界におけるコントラストを強調することがある。本発明では、これを画像減衰マップにより以下のように模倣する。深度エッジは黒色の背景上に白色で存在する。本発明は、エッジ強調フィルタの勾配であるフィルタを用いてたたみ込みを行う。本発明のフィルタは、ガウス関数からインパルス関数を引いたものである。たたみ込んだ画像に対して2D積分を実行すると、深度エッジにおいて急激な遷移が得られる。
いくつかの静止した図は、前景の動きのある部分を明るくすることによって、活動、たとえば車内の変化する油を示す。しかしながら、色が類似しておりテクスチャがない場合、輝度を基にした方式による前景の検出、たとえば図11に示すような、他の皮膚の色をした部分の前面にある手の動作の検出は困難である。
画像内のビジュアルクラッタを低減し、物体の形状を明確にする1つの方法は、シーンの形状の境界すなわち深度エッジに関係ない細部、たとえばテクスチャおよび照明の変化を簡略化することである。従来の画像分割手法は、閉じた輪郭に厳しい制約を課し、各領域に固定した色を割り当てる。また、分割は、深度エッジを見逃し、前景と背景が単色の物体に統合されてしまう場合がある。
(x,y)はテクスチャエッジ画素であり、
d(x,y)は特徴のない画素であり、
(x,y)は1に設定された深度エッジ画素である。
マスク画像γ(x,y)を生成する
輝度勾配∇I(x,y)を求める
マスクをかけた勾配G(x,y)=∇I(x,y)γ(x,y)を変更する
|I’−G|を最小化するように画像I’を再構成する
出力画像I’(x,y)内の色を、入力画像I(x,y)の色に実質的に一致するように正規化する
これまでのところ、本発明の方法は、静止シーンの複数の画像を取得して幾何特徴を求める。本発明は、移動物体または移動カメラを有するシーンの取り込みの同時性の欠如を調べる。ここでもまた、画像シーケンス中の動きを推定するための多くの著作物が存在し、賢明な手法は、静的アルゴリズムからの結果を用いて、導入されるアーチファクトを補正するために動き補償技法を適用することである。
取得の同時性の欠如は、元の画像、たとえば最大合成Imaxの信頼性が低く、特徴が位置合わせされていないことを意味する。このことが、影領域を確実に見付けることを妨げる。本発明は、シーンの動きが中程度である、特に画像空間において物体の特徴の動きが物体の幅よりも小さいという簡略化の仮定を行う。高速カメラにより、フレーム間の動き量を低減することができるが、同時性の欠如を仮定することはできない。本発明の新規の照明方法により、このことは、移動する影のある領域を観測することによって比較的簡単に解決されることが分かった。この説明を簡単にするために、本発明では、レンズの左側および右側にあるフラッシュユニットのみを考えて、垂直方向の深度エッジを求める。
深度エッジに起因する、隣接する影エッジを有する勾配、
静止部分のテクスチャエッジに起因する勾配、および
移動部分のテクスチャエッジに起因する勾配。
画像Iabを保存する影を求める。ここでIab=min(a,b,c)である。
影のない画像Iacを求める。ここでIac=min(a,c)である。
比画像Rmを求める。ここでRm.Iab/Iacである。
emからのエピポーラ光線に沿って横断し、負の遷移を指示する。
所与のフレームmにおける深度エッジは、限られた向きのみに渡るため、不完全である。動的なシーンにおいて、4つの連続フレームの深度エッジの結合は、不連続な輪郭を識別するほど整列していない場合がある。本発明は、同じフラッシュユニットに対応する符号付き深度エッジ、すなわちmとm+nを照合し、中間フレームの変位を補間する。色を割り当てるために、本発明では、3つの連続フレーム、たとえば前フレーム、現フレーム、および次フレームの最大値をとる。
深度の不連続点を検出することは、画像を理解するための基本であり、多くの用途において用いることができる。本方法は、主に物体の最外部のシルエットに基づくが、本発明者らは、完全な深度エッジマップは、ビジュアルハル(visual hull)、分割、深度層およびアスペクトグラフの分解の問題に役立つことができると考える。航空写真技法は、日光の既知の方向から投じられた影の複数の時間差画像を見ることによって建物の検出を改善することができる。さらに、後処理中の被写界深度効果、カメラアレイを用いた合成口径および任意の背景を用いた仮想セットのためのスクリーンマッティング等の効果は、高品質の符号付き深度エッジを必要とする。
Claims (44)
- 物体を含むシーンの様式化された画像を生成する方法であって、
n枚の入力画像のそれぞれが、カメラのレンズの投影中心から異なる位置の前記カメラの本体に取り付けられたn個の光源の組のうちの1つの光源によって照明され、カメラを用いて前記シーンからn枚の入力画像の組を取得することと、
前記n枚の入力画像の組内の、深度エッジ、輝度エッジ、及びテクスチャエッジを含む特徴を検出して、前記深度エッジ、前記輝度エッジ、及び前記テクスチャエッジ間の定性的な深度の関係を求めることと、
前記n枚の入力画像の組を1つの出力画像に合成して、前記検出された特徴を前記定性的な関係に従って強調することと
を含む、物体を含むシーンの様式化された画像を生成する方法。 - 前記深度エッジは、前記n枚の入力画像内の深度の不連続点に対応する
請求項1記載の方法。 - 前記深度エッジは、符号付きであり、前記n枚の入力画像内の前景画素が正の値を有し、背景画素が負の値を有するようになっており、
前記テクスチャエッジは、前記シーン内の反射率及び物質の不連続点の輪郭を描き、
前記輝度エッジは、実質的に一定の反射率を有する前記シーン内の領域の輪郭を描く
請求項1記載の方法。 - 前記深度エッジは、画像空間の座標に対して前記シーン内の影領域に対応する
請求項1記載の方法。 - 前記シーン内の前記物体及び前記影領域は、前記画像空間において連続している
請求項4記載の方法。 - 前記n枚の入力画像のそれぞれについて、実質的に0に近い前記影領域内の画素輝度から比画像を生成することと、
前記深度エッジにおいて負のステップエッジを指示するエピポーラ光線に沿って各比画像に対して輝度エッジ検出を実行して、各比画像の深度エッジマップを生成することと、
n枚すべての入力画像からの前記エッジマップを合成して、最終的な深度エッジマップを得ることとをさらに含む
請求項4記載の方法。 - 前記n個の光源の組は、前記カメラのレンズの投影中心から別々の距離の前記カメラの本体に取り付けられて、複数の基線を提供する
請求項1記載の方法。 - 前記n枚の入力画像は、鏡面反射ハイライトを含み、
前記n枚の入力画像から前記鏡面反射ハイライトを除去することをさらに含む
請求項1記載の方法。 - 前記n枚の入力画像内の各画素においてn個の勾配変動を求めることと、
前記n個の勾配の中央値を求めて、外れ値を除去することとをさらに含む
請求項8記載の方法。 - 特定の入力画像Ik内の各画素(x,y)における輝度勾配は、Gk(x,y)=∇Ik(x,y)であり、
前記勾配の中央値は、G(x,y)=mediank(Gk(x,y))であり、
再構成される画像I’は、|∇I’−G|を最小化する
請求項9記載の方法。 - 比Ik(x,y)/I’(x,y)は、1.0に設定されて、前記鏡面反射ハイライトが除去される
請求項10記載の方法。 - 前記深度エッジ画素を輪郭につなぐことと、
前記輪郭を平滑化することとをさらに含む
請求項1記載の方法。 - 前記深度エッジの前景側は、前記正の値を有し、前記深度エッジの背景側は、前記負の値を有し、
前記前景側を白色としてレンダリングすることと、
前記背景側を黒色としてレンダリングすることとをさらに含む
請求項3記載の方法。 - 前記輪郭を面法線に沿って変位させることによって前記深度エッジの前記前景側及び前記背景側をレンダリングすることをさらに含む
請求項13記載の方法。 - 前記深度エッジの幅を変更して、前記出力画像において任意の光方向を伝えることをさらに含む
請求項14記載の方法。 - 前記幅は、画像空間の法線と前記任意の光方向のドット積に比例する
請求項15記載の方法。 - 選択された色で前記深度エッジをレンダリングすることをさらに含む
請求項1記載の方法。 - 1つの入力画像は、周囲からの光によって照明され、
周囲からの光によって照明される前記1つの入力画像を分割することと、
分割された入力画像に色を付けた深度エッジを重ねることとをさらに含む
請求項17記載の方法。 - 前記深度エッジを前記出力画像において黒色の背景上に白色でレンダリングすることと、
エッジ強調フィルタの勾配であるフィルタを用いて前記エッジをたたみ込み、たたみ込まれた画像を得ることと、
前記たたみ込まれた画像を積分して、前記深度エッジにおける急激な遷移を得ることとをさらに含む
請求項1記載の方法。 - 前記フィルタは、ガウス関数からインパルス関数を引いたものである
請求項19記載の方法。 - 前記シーンは、背景物体及び前景物体を含み、
前記背景物体のみを有する前記シーンから第1のn+1枚の入力画像の組を取得することと、
前記背景物体及び前記前景物体を有する前記シーンから第2のn+1枚の入力画像の組を取得することと、
前記第2のn+1枚の入力画像の組の前記前景物体に対応する部分にマスクを適用して、前記出力画像における前記前景物体の外観を強調することとをさらに含む
請求項1記載の方法。 - 前記マスク内の画素輝度値は、1に設定される
請求項21記載の方法。 - 前記テクスチャエッジは、前記n+1枚の画像内のテクスチャ領域を定義し、
マスク画像に従って前記テクスチャ領域にマスクをかけて、前記出力画像においてクラッタを低減することをさらに含む
請求項1記載の方法。 - 前記マスク画像内の画素は、γ(x,y)=aであり、
前記深度エッジの画素(x,y)の輝度値を1に設定することと、
前記テクスチャエッジの画素(x,y)の輝度値を0に設定することと、
画素d(x,y)の輝度エッジの輝度値を、深度エッジ画素の距離フィールドに対するテクスチャエッジ画素の距離フィールドの比に設定することとをさらに含む
請求項23記載の方法。 - 初期マスク画像γ(x,y)を生成することと、
輝度勾配∇I(x,y)を求めることと、
マスクをかけられた勾配G(x,y)=∇I(x,y)γ(x,y)を変更することと、
前記出力画像I’を再構成して、|I’−G|を最小化することと、
前記出力画像I’(x,y)内の色を正規化して、前記入力画像I(x,y)内の色と実質的に一致させることとをさらに含む
請求項24記載の方法。 - 前記カメラはビデオカメラであり、前記物体は前記シーン内で動き、
前記ビデオカメラを用いて前記シーンからn+1枚の入力画像の組のシーケンスを取得することと、
前記n枚の入力画像の組のシーケンス内の前記特徴を検出することと、
前記n+1枚の入力画像の組のシーケンスを出力画像のシーケンスに合成して、前記定性的な関係に従って前記検出された特徴を強調することとをさらに含む
請求項1記載の方法。 - 輝度勾配が、前記深度エッジに起因する勾配、静止部分の前記テクスチャエッジに起因する勾配、及び移動部分の前記テクスチャエッジに起因する勾配を含み、
前記画像の組のシーケンス内の輝度勾配を特定することと、
前記静止部分を有するテクスチャエッジを除去することとをさらに含む
請求項26記載の方法。 - 前記出力画像のシーケンス内で移動する深度エッジの変位を補間することをさらに含む
請求項27記載の方法。 - 前記出力画像のシーケンスの特定の画像内の画素の色を3つの連続する画像の最大値に従って割り当てることをさらに含む
請求項26記載の方法。 - 前記3つの連続する画像は、前記シーケンス内の特定の画像、前の画像及び次の画像である
請求項29記載の方法。 - 前記光源は、可視光を放射する
請求項1記載の方法。 - 前記光源は、赤外光を放射する
請求項1記載の方法。 - 前記光源は、ソナー信号を放射する
請求項1記載の方法。 - 前記光源は、x線を放射する
請求項1記載の方法。 - 前記光源は、レーダー信号を放射する
請求項1記載の方法。 - 前記光源は、複数の波長の光を同時に放射し、
前記カメラ内のセンサにおいて複数のフィルタを用いて複数の周波数を復号化することをさらに含む
請求項1記載の方法。 - 前記フィルタは、ベイヤーモザイクパターンを有する
請求項36記載の方法。 - 前記エッジは、前記n枚の入力画像内の全てのエッジを含む
請求項1記載の方法。 - 前記エッジからビジュアルハルを求めることをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像を分割することをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像内の深度層を分解することをさらに含む
請求項38記載の方法。 - 前記エッジに従って前記出力画像のアスペクトグラフを分解することをさらに含む
請求項38記載の方法。 - 前記入力画像は、航空写真撮影術によって取得される
請求項1記載の方法。 - 前記光源は、フラッシュユニットである
請求項1記載の方法。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US10/847,068 US7738725B2 (en) | 2003-03-19 | 2004-05-17 | Stylized rendering using a multi-flash camera |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2005341569A true JP2005341569A (ja) | 2005-12-08 |
| JP4610411B2 JP4610411B2 (ja) | 2011-01-12 |
Family
ID=35494557
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005143803A Expired - Fee Related JP4610411B2 (ja) | 2004-05-17 | 2005-05-17 | 物体を含むシーンの様式化された画像を生成する方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4610411B2 (ja) |
Cited By (58)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008039767A (ja) * | 2006-08-01 | 2008-02-21 | Mitsubishi Electric Research Laboratories Inc | 反射性物体の表面の形状を検知する方法及びシステム |
| JP2009177782A (ja) * | 2007-12-28 | 2009-08-06 | Sanyo Electric Co Ltd | 画像処理装置および撮影装置 |
| JP2009212811A (ja) * | 2008-03-04 | 2009-09-17 | Canon Inc | 撮像システム、撮影方法及びプログラム |
| US7983487B2 (en) | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
| JP2011215100A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| JP2011215101A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| JP2011215099A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| US8325268B2 (en) | 2007-12-28 | 2012-12-04 | Sanyo Electric Co., Ltd. | Image processing apparatus and photographing apparatus |
| JP2017102637A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体 |
| WO2017154706A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
| JP2017163587A (ja) * | 2011-09-28 | 2017-09-14 | ペリカン イメージング コーポレイション | 明視野画像ファイルを符号化および復号するためのシステムおよび方法 |
| JP2017174416A (ja) * | 2016-02-29 | 2017-09-28 | トムソン ライセンシングThomson Licensing | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス |
| US10091405B2 (en) | 2013-03-14 | 2018-10-02 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10142560B2 (en) | 2008-05-20 | 2018-11-27 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US10182216B2 (en) | 2013-03-15 | 2019-01-15 | Fotonation Limited | Extended color processing on pelican array cameras |
| US10306120B2 (en) | 2009-11-20 | 2019-05-28 | Fotonation Limited | Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps |
| US10311649B2 (en) | 2012-02-21 | 2019-06-04 | Fotonation Limited | Systems and method for performing depth based image editing |
| US10334241B2 (en) | 2012-06-28 | 2019-06-25 | Fotonation Limited | Systems and methods for detecting defective camera arrays and optic arrays |
| JP2019113870A (ja) * | 2019-04-05 | 2019-07-11 | キヤノン株式会社 | 撮像装置 |
| CN110070482A (zh) * | 2019-03-14 | 2019-07-30 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和计算机可读存储介质 |
| US10366472B2 (en) | 2010-12-14 | 2019-07-30 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US10380752B2 (en) | 2012-08-21 | 2019-08-13 | Fotonation Limited | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US10390005B2 (en) | 2012-09-28 | 2019-08-20 | Fotonation Limited | Generating images from light fields utilizing virtual viewpoints |
| JP2019168862A (ja) * | 2018-03-22 | 2019-10-03 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体 |
| US10455218B2 (en) | 2013-03-15 | 2019-10-22 | Fotonation Limited | Systems and methods for estimating depth using stereo array cameras |
| US10462362B2 (en) | 2012-08-23 | 2019-10-29 | Fotonation Limited | Feature based high resolution motion estimation from low resolution images captured using an array source |
| US10540806B2 (en) | 2013-09-27 | 2020-01-21 | Fotonation Limited | Systems and methods for depth-assisted perspective distortion correction |
| US10560684B2 (en) | 2013-03-10 | 2020-02-11 | Fotonation Limited | System and methods for calibration of an array camera |
| US10674138B2 (en) | 2013-03-15 | 2020-06-02 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
| US10708492B2 (en) | 2013-11-26 | 2020-07-07 | Fotonation Limited | Array camera configurations incorporating constituent array cameras and constituent cameras |
| JP2020170366A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社キーエンス | 手持ち式光学情報読取装置 |
| US10897562B2 (en) | 2015-07-23 | 2021-01-19 | Canon Kabushiki Kaisha | Imaging device including a plurality of light emitting elements |
| US10944961B2 (en) | 2014-09-29 | 2021-03-09 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
| US11022725B2 (en) | 2012-06-30 | 2021-06-01 | Fotonation Limited | Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors |
| CN113221619A (zh) * | 2021-01-28 | 2021-08-06 | 深圳市雄帝科技股份有限公司 | 基于泊松重建的人脸图像去高光方法、系统及其存储介质 |
| US11151783B2 (en) | 2014-09-03 | 2021-10-19 | Nikon Corporation | Image pickup device, information processing device, and image pickup system |
| US11270110B2 (en) | 2019-09-17 | 2022-03-08 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
| US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
| US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
| US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
| US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
| US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
| WO2024051541A1 (zh) * | 2022-09-08 | 2024-03-14 | 北京字跳网络技术有限公司 | 特效图像生成方法、装置、电子设备及存储介质 |
| US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
| US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
| US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
| JP7508673B2 (ja) | 2022-10-07 | 2024-07-01 | 株式会社東芝 | コンピュータビジョン方法およびシステム |
| US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
| US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
| US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
| US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
| US12293535B2 (en) | 2021-08-03 | 2025-05-06 | Intrinsic Innovation Llc | Systems and methods for training pose estimators in computer vision |
| US12340538B2 (en) | 2021-06-25 | 2025-06-24 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
| US12549701B2 (en) | 2024-04-12 | 2026-02-10 | Adeia Imaging Llc | System and methods for calibration of an array camera |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101812664B1 (ko) | 2016-10-28 | 2017-12-27 | 한국과학기술원 | 가분적 외곽선을 가지는 다시점 객체 추출 방법 및 장치 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003008988A (ja) * | 2001-04-11 | 2003-01-10 | Hewlett Packard Co <Hp> | フラッシュアーチファクトを除去する方法および装置 |
| JP2003219264A (ja) * | 2002-01-22 | 2003-07-31 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法、及びプログラム |
| JP2004289829A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 様式化された画像を生成するための方法 |
-
2005
- 2005-05-17 JP JP2005143803A patent/JP4610411B2/ja not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003008988A (ja) * | 2001-04-11 | 2003-01-10 | Hewlett Packard Co <Hp> | フラッシュアーチファクトを除去する方法および装置 |
| JP2003219264A (ja) * | 2002-01-22 | 2003-07-31 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法、及びプログラム |
| JP2004289829A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 様式化された画像を生成するための方法 |
Cited By (97)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008039767A (ja) * | 2006-08-01 | 2008-02-21 | Mitsubishi Electric Research Laboratories Inc | 反射性物体の表面の形状を検知する方法及びシステム |
| US7983487B2 (en) | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
| JP2009177782A (ja) * | 2007-12-28 | 2009-08-06 | Sanyo Electric Co Ltd | 画像処理装置および撮影装置 |
| US8325268B2 (en) | 2007-12-28 | 2012-12-04 | Sanyo Electric Co., Ltd. | Image processing apparatus and photographing apparatus |
| JP2009212811A (ja) * | 2008-03-04 | 2009-09-17 | Canon Inc | 撮像システム、撮影方法及びプログラム |
| US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US10142560B2 (en) | 2008-05-20 | 2018-11-27 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US11412158B2 (en) | 2008-05-20 | 2022-08-09 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US12041360B2 (en) | 2008-05-20 | 2024-07-16 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US12022207B2 (en) | 2008-05-20 | 2024-06-25 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US10306120B2 (en) | 2009-11-20 | 2019-05-28 | Fotonation Limited | Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps |
| JP2011215100A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| JP2011215099A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| JP2011215101A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
| US11875475B2 (en) | 2010-12-14 | 2024-01-16 | Adeia Imaging Llc | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US11423513B2 (en) | 2010-12-14 | 2022-08-23 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US10366472B2 (en) | 2010-12-14 | 2019-07-30 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US12243190B2 (en) | 2010-12-14 | 2025-03-04 | Adeia Imaging Llc | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| JP2020017999A (ja) * | 2011-09-28 | 2020-01-30 | フォトネイション リミテッド | 明視野画像ファイルを符号化および復号するためのシステムおよび方法 |
| US10984276B2 (en) | 2011-09-28 | 2021-04-20 | Fotonation Limited | Systems and methods for encoding image files containing depth maps stored as metadata |
| JP2017163587A (ja) * | 2011-09-28 | 2017-09-14 | ペリカン イメージング コーポレイション | 明視野画像ファイルを符号化および復号するためのシステムおよび方法 |
| US10275676B2 (en) | 2011-09-28 | 2019-04-30 | Fotonation Limited | Systems and methods for encoding image files containing depth maps stored as metadata |
| US20180197035A1 (en) | 2011-09-28 | 2018-07-12 | Fotonation Cayman Limited | Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata |
| US12052409B2 (en) | 2011-09-28 | 2024-07-30 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
| US11729365B2 (en) | 2011-09-28 | 2023-08-15 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
| US10430682B2 (en) | 2011-09-28 | 2019-10-01 | Fotonation Limited | Systems and methods for decoding image files containing depth maps stored as metadata |
| US10311649B2 (en) | 2012-02-21 | 2019-06-04 | Fotonation Limited | Systems and method for performing depth based image editing |
| US10334241B2 (en) | 2012-06-28 | 2019-06-25 | Fotonation Limited | Systems and methods for detecting defective camera arrays and optic arrays |
| US11022725B2 (en) | 2012-06-30 | 2021-06-01 | Fotonation Limited | Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors |
| US10380752B2 (en) | 2012-08-21 | 2019-08-13 | Fotonation Limited | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US12437432B2 (en) | 2012-08-21 | 2025-10-07 | Adeia Imaging Llc | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US12002233B2 (en) | 2012-08-21 | 2024-06-04 | Adeia Imaging Llc | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US10462362B2 (en) | 2012-08-23 | 2019-10-29 | Fotonation Limited | Feature based high resolution motion estimation from low resolution images captured using an array source |
| US10390005B2 (en) | 2012-09-28 | 2019-08-20 | Fotonation Limited | Generating images from light fields utilizing virtual viewpoints |
| US11570423B2 (en) | 2013-03-10 | 2023-01-31 | Adeia Imaging Llc | System and methods for calibration of an array camera |
| US10560684B2 (en) | 2013-03-10 | 2020-02-11 | Fotonation Limited | System and methods for calibration of an array camera |
| US11985293B2 (en) | 2013-03-10 | 2024-05-14 | Adeia Imaging Llc | System and methods for calibration of an array camera |
| US10958892B2 (en) | 2013-03-10 | 2021-03-23 | Fotonation Limited | System and methods for calibration of an array camera |
| US11272161B2 (en) | 2013-03-10 | 2022-03-08 | Fotonation Limited | System and methods for calibration of an array camera |
| US10547772B2 (en) | 2013-03-14 | 2020-01-28 | Fotonation Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US10091405B2 (en) | 2013-03-14 | 2018-10-02 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US10674138B2 (en) | 2013-03-15 | 2020-06-02 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
| US10638099B2 (en) | 2013-03-15 | 2020-04-28 | Fotonation Limited | Extended color processing on pelican array cameras |
| US10455218B2 (en) | 2013-03-15 | 2019-10-22 | Fotonation Limited | Systems and methods for estimating depth using stereo array cameras |
| US10182216B2 (en) | 2013-03-15 | 2019-01-15 | Fotonation Limited | Extended color processing on pelican array cameras |
| US10540806B2 (en) | 2013-09-27 | 2020-01-21 | Fotonation Limited | Systems and methods for depth-assisted perspective distortion correction |
| US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10767981B2 (en) | 2013-11-18 | 2020-09-08 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US11486698B2 (en) | 2013-11-18 | 2022-11-01 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10708492B2 (en) | 2013-11-26 | 2020-07-07 | Fotonation Limited | Array camera configurations incorporating constituent array cameras and constituent cameras |
| US10574905B2 (en) | 2014-03-07 | 2020-02-25 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US11151783B2 (en) | 2014-09-03 | 2021-10-19 | Nikon Corporation | Image pickup device, information processing device, and image pickup system |
| US10944961B2 (en) | 2014-09-29 | 2021-03-09 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
| US11546576B2 (en) | 2014-09-29 | 2023-01-03 | Adeia Imaging Llc | Systems and methods for dynamic calibration of array cameras |
| US12501023B2 (en) | 2014-09-29 | 2025-12-16 | Adeia Imaging Llc | Systems and methods for dynamic calibration of array cameras |
| US10897562B2 (en) | 2015-07-23 | 2021-01-19 | Canon Kabushiki Kaisha | Imaging device including a plurality of light emitting elements |
| JP2017102637A (ja) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体 |
| US11176728B2 (en) | 2016-02-29 | 2021-11-16 | Interdigital Ce Patent Holdings, Sas | Adaptive depth-guided non-photorealistic rendering method and device |
| JP2017174416A (ja) * | 2016-02-29 | 2017-09-28 | トムソン ライセンシングThomson Licensing | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス |
| JP7120740B2 (ja) | 2016-02-29 | 2022-08-17 | インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス |
| WO2017154706A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
| US11151733B2 (en) | 2016-03-09 | 2021-10-19 | Nikon Corporation | Detection device, information processing device, detection method, storage medium, and detection system |
| JP7179472B2 (ja) | 2018-03-22 | 2022-11-29 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体 |
| JP2019168862A (ja) * | 2018-03-22 | 2019-10-03 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体 |
| CN110070482B (zh) * | 2019-03-14 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和计算机可读存储介质 |
| CN110070482A (zh) * | 2019-03-14 | 2019-07-30 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和计算机可读存储介质 |
| JP7289703B2 (ja) | 2019-04-03 | 2023-06-12 | 株式会社キーエンス | 手持ち式光学情報読取装置 |
| JP2020170366A (ja) * | 2019-04-03 | 2020-10-15 | 株式会社キーエンス | 手持ち式光学情報読取装置 |
| JP2019113870A (ja) * | 2019-04-05 | 2019-07-11 | キヤノン株式会社 | 撮像装置 |
| US11699273B2 (en) | 2019-09-17 | 2023-07-11 | Intrinsic Innovation Llc | Systems and methods for surface modeling using polarization cues |
| US11270110B2 (en) | 2019-09-17 | 2022-03-08 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
| US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US12099148B2 (en) | 2019-10-07 | 2024-09-24 | Intrinsic Innovation Llc | Systems and methods for surface normals sensing with polarization |
| US11982775B2 (en) | 2019-10-07 | 2024-05-14 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
| US12380568B2 (en) | 2019-11-30 | 2025-08-05 | Intrinsic Innovation Llc | Systems and methods for transparent object segmentation using polarization cues |
| US11842495B2 (en) | 2019-11-30 | 2023-12-12 | Intrinsic Innovation Llc | Systems and methods for transparent object segmentation using polarization cues |
| US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
| US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
| US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
| CN113221619A (zh) * | 2021-01-28 | 2021-08-06 | 深圳市雄帝科技股份有限公司 | 基于泊松重建的人脸图像去高光方法、系统及其存储介质 |
| CN113221619B (zh) * | 2021-01-28 | 2024-02-20 | 深圳市雄帝科技股份有限公司 | 基于泊松重建的人脸图像去高光方法、系统及其存储介质 |
| US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
| US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
| US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
| US11683594B2 (en) | 2021-04-15 | 2023-06-20 | Intrinsic Innovation Llc | Systems and methods for camera exposure control |
| US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
| US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
| US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
| US12340538B2 (en) | 2021-06-25 | 2025-06-24 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
| US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
| US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
| US12293535B2 (en) | 2021-08-03 | 2025-05-06 | Intrinsic Innovation Llc | Systems and methods for training pose estimators in computer vision |
| WO2024051541A1 (zh) * | 2022-09-08 | 2024-03-14 | 北京字跳网络技术有限公司 | 特效图像生成方法、装置、电子设备及存储介质 |
| JP7508673B2 (ja) | 2022-10-07 | 2024-07-01 | 株式会社東芝 | コンピュータビジョン方法およびシステム |
| US12549701B2 (en) | 2024-04-12 | 2026-02-10 | Adeia Imaging Llc | System and methods for calibration of an array camera |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4610411B2 (ja) | 2011-01-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4610411B2 (ja) | 物体を含むシーンの様式化された画像を生成する方法 | |
| US7738725B2 (en) | Stylized rendering using a multi-flash camera | |
| Raskar et al. | Non-photorealistic camera: depth edge detection and stylized rendering using multi-flash imaging | |
| US7359562B2 (en) | Enhancing low quality videos of illuminated scenes | |
| JP4440681B2 (ja) | 様式化された画像を生成するための方法 | |
| JP4364686B2 (ja) | 自然に照明されたシーンの画像の画質を高めるための方法 | |
| US7206449B2 (en) | Detecting silhouette edges in images | |
| US7295720B2 (en) | Non-photorealistic camera | |
| US7102638B2 (en) | Reducing texture details in images | |
| Goesele et al. | Multi-view stereo revisited | |
| Gvili et al. | Depth keying | |
| Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
| JP2009074836A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
| US7280685B2 (en) | Object segmentation from images acquired by handheld cameras | |
| Kanamori et al. | Boosting | |
| Vogt et al. | Highlight substitution in light fields | |
| Amri et al. | A robust framework for joint background/foreground segmentation of complex video scenes filmed with freely moving camera | |
| Jang et al. | 3D human modeling from a single depth image dealing with self-occlusion | |
| Yagi et al. | Diminished reality for privacy protection by hiding pedestrians in motion image sequences using structure from motion | |
| Gelautz et al. | Recognition of object contours from stereo images: an edge combination approach | |
| Feris et al. | Dealing with multi-scale depth changes and motion in depth edge detection | |
| Bishop et al. | Blind deconvolution | |
| Ramanath et al. | Blackbody Radiation | |
| Chandraker | Bas-relief ambiguity | |
| Cheng et al. | Contrast enhancement from multiple panoramic images |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080410 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101012 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101012 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4610411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |