JP2002514359A - Method and apparatus for creating a mosaic image - Google Patents
Method and apparatus for creating a mosaic imageInfo
- Publication number
- JP2002514359A JP2002514359A JP50633998A JP50633998A JP2002514359A JP 2002514359 A JP2002514359 A JP 2002514359A JP 50633998 A JP50633998 A JP 50633998A JP 50633998 A JP50633998 A JP 50633998A JP 2002514359 A JP2002514359 A JP 2002514359A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- mosaic
- source
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
(57)【要約】 ソース画像を選択するステップ、ソース画像を整列させるステップ、ソース・セグメントを選択するステップ、画像を改善するステップ、及び画像をマージして画像モザイクを形成するステップを含む画像モザイクの作成方法が開示される。ソース画像を選択する手段(102)、ソース画像を整列させる手段(103)、ソース画像のセグメントを選択する手段(104)、画像を改善する手段(105)、及び画像をマージして画像モザイクを形成する手段(106)を含む画像モザイク作成装置も開示される。プロセスはシステムによって自動的に実行されるか、人間の操作員によって対話的に導かれてよい。アプリケーションはビデオ・カメラ及びディジタル・カメラの画像から写真品質の印刷物を作ることを含む。 (57) An image mosaic comprising the steps of selecting a source image, aligning the source image, selecting a source segment, improving the image, and merging the images to form an image mosaic. Is disclosed. Means for selecting a source image (102), means for aligning the source image (103), means for selecting a segment of the source image (104), means for improving the image (105), and merging the images to form an image mosaic. An image mosaic creation device including means for forming (106) is also disclosed. The process may be performed automatically by the system or may be guided interactively by a human operator. Applications include making photographic quality prints from images from video and digital cameras.
Description
【発明の詳細な説明】 モザイク画像を作成する方法及び装置 発明の背景 本出願は1996年7月17日に出願された仮出願第60/021,925号 に基づく非仮出願である。 本発明は複数のソース画像からモザイク画像を作成する方法及び装置に関する 。 ビデオ及びディジタル・カメラは比較的に低解像度の画像を提供し、限られた 視界をカバーする。低解像度及び限られた視界の問題の双方は、幾つかの画像を 拡張された両像モザイクに結合することによって克服することができる。 モザイクは、カメラの動きを補償するために画像の集合を整列させ、各画像よ りもはるかに広い視界をカバーする1つの画像を作るためにそれらをマージする ことによって、ソース画像の集合から作ることができる。モザイク作成の2つの 主なステップは、画像の整列と、整列させられた画像を大きくて継ぎ目のないモ ザイク画像にマージすることである。 現在、モザイク作成用の画像整列方法及びシステムは、種々のものが存在する 。モザイク画像は長年にわたって衛星及び宇宙プローブ画像から作成されてきた 。これらの場合、画像を整列させるための適切なパラメータは、カメラ視野方向 の入念な測定から知られるか、オーバラップした画像領域内で対応する点を手作 業で指定することによって決定された。カメラ方向の入念な測定を使用する方法 は、例えば、エル・マクミラン及びジー・ビショップによるSIGGRAPH 95の「プレノプティック・モデリング:画像に基づくレンダリング・システム 」(PlenoptiAc Modeling:An Image-Based Rendering System",L.McMillan and G.Bishop,SIGGRAPH 95)に説明されている。このアプローチでは、画像はカメ ラから取られ、カメラの動きは高度に制御され、光学中心の周りを完全に円回転 する。作成されたモザイクは画像を円筒形像面に投射することによって作られ、 従って完全な円を単一の平面像の上でモザイク処理することに関連するであろう 歪みが避けられる。 更に一般的には、整列は、オーバラップした画像のパターンを正確な整列にも ってくる画像変換(例えば、平行移動、回転、拡大縮小)を自動的に見いだす画 像処理テクニックを介して達成される。両像処理に基づく方法は、1994年1 1月14日に出願された「モザイクに基づく画像処理システム」(Mosaic Based Image Processing System)と題する米国特許出願第08/339,491号、 及び1995年6月22日に出願された「視差に基づくテクニックを使用した画 像結合方法及びシステム」(Method and System for Image Combination Using A Parallaz-Based Technique)と題する米国特許出願第08/493,632号 に説明されている。これらの各々は本明細書に援用されている。 現在、これらの画像処理方法を使用してビデオからリアルタイムでモザイクを 作成することのできるシステムが存在する。そのようなシステムは、1996年 の「SPIE 第2736巻:高度総合ビジョン1996」の119〜127ペ ージに掲載されたピー・バート、エム・ハンセン、及びピー・アナンダンによる「 ビデオ・モザイク・ディスプレイ」("Video Mosaic Displays",P.Burt,M.Hanse n,and P.Anandan,SPIE Volume 2736:Enhanced and Synthetic Vision 1996, pp 119-127,1996)、及び1994年11月の「ARBA画像理解ワークショッ プ」(ARPA Image Understanding Workshop)457〜465ページに掲載され たエム・ハンセン、ピー・アナンダン、ケー・ダーナ、ジー・ファン・デル・ワ ール、及びピー・バート(M.Hansen,P.Anandan,K.Dana,G,van der Wal.and P.Burt)による「リアルタイム・シーン安定及びモザイク作成」(Real-time sc ene stabilization and mosaic construction)に説明されている。 ソース画像を継ぎ目のないモザイクにマージするためには、各種の画像処理方法 が現在存在する。最も単純な方法は、2つの画像がオーバラップするゾーン内で 2つの画像の重みづけられた平均を計算することによって1つの画像を他の画像 の中にディジタル的にフェザリングする。この方法は、ソース画像がオーバラッ プ領域の全体にわたって正確に整列されていないと二重画像となり、2つの画像 が平均強度、色、又はコントラストのような特性で著しく異なっているときは、 目に見えるぼんやりした継ぎ目を生じる。継ぎ目を避けるために画像をマージす るもっと一般的な方法は、画像ピラミッドを使用して画像を多くの異なったスケ ールで同時にマージすることである。この方法は、1983年10月の「グラフ ィックスのACM会報」第2巻、第4号、217〜236ページ(バート)に記 載さたれピー・ジェイ・バート及びイー・エッチ・アーデルソンによる「画像モ ザイクへの応用を有する多解像度スプライン」("A Multiresolution Spline W ith Applications to Image Mosaaics",P.J.Burt and E.H.Adelson,ACM Tra nsactions of graphics,Vol.2,No.4,October 1983,pp.217-236(Burt I))に最 初に説明されている。 更に、所望のモザイク領域のある部分をカバーするため、モザイク作成中のマ ージ・ステップが、ソース画像の不足によって残されるモザイク中の穴を充填す ることも望まれる。多解像度ピラミッド画像処理フレームワークを使用してモザ イク中の穴を充填する方法は、1988年の「ICBR」、300〜302ペー ジに記載されたピー・ジェイ・バートによる「モーメント画像、多項式適合フィ ルタ、及び表面内挿の問題」(Moment Images,polynomial fit filters,and t he problem of surface interpolation,P.J.Burt,ICPR 1988,pp.300-302)に 説明されている。 更に、モザイク作成で使用される画像マージ方法は、画像の改善をもたらす場 合がある。例えば、画像の「ノイズ」はソース画像を単純に平均することによっ てオーバラップ・ゾーン内で低減することができる。もしあるソース画像が他の ソース画像よりも良好な品質を有するか、シーン中の物体表現が他のソース画像 よりも明瞭であれば、非線形法を使用して各ソース画像から「最良の」情報を選 択することができる。例えば、そのような方法が、1993年の「ICCV」の 242〜246ページに掲載されたピー・ジェイ・バート及びアール・コルチン スキーによる「融合による改善された画像捕獲」(Enhanced image capture throu gh fusion,P.J.Burt and R.Kolczynski,ICCV 1993,pp242-246)に説明され ている。 複数のソース画像は、オーバラップ領域内で画像の解像度を改善するような方 法で結合されてよい。そのような方法は、1993年12月の「映像通信及び画 像表現」第4巻、324〜335ページに発表されたエム・イラーニ及びエス・ ペーレーグによる「画像改善のための動き分析:解像度、オクルージョン、及び 透過性」("Motion Analysis for Image Enhancement:Resolution,Occlusion, and Transparency",M.Irani and S.Peleg,Vision Communications and Image Representation Vol.4,December 1993,pp.324-335)に記載されている。 モザイクを作成するこれら既存の方法は、本発明によって提供される幾つかの 能力を欠いている。すなわち、 ・ モザイク中で使用される最良の全体的整列を得るため、すべてのソース画 像を同時に整列させる効果的画像処理手段。現行の方法は単に画像の対を整列さ せるものである。例えば、一連のビデオ・フレームからモザイクを作成する場合 、各画像はシーケンス中の前の画像に対して整列させられる。小さな整列誤差が 累積されて、シーケンス中で大きく隔てられた時間では、オーバラップ画像フレ ームの不良な整列を生じる可能性がある。 ・ 最良の全体的モザイクを得るため、すべてのソース画像をマージする効果 的画像処理手段。現行の方法は、一時に2つだけの画像をマージするものである 。多くの画像から構成されるモザイクは、一時に1つの新しい画像にマージする ことによって作成される。この方法は最良の全体的品質を与えない場合があり、 不必要な計算を伴う場合がある。 ・ 露光特性が劇的に異なるソース画像をマージする効果的画像処理手段。 ・ モザイクに入れられる各ソース画像の領域を、オーバラップ領域から自動 的に選択する効果的画像処理手段。 ・ 商用及びコンシューマ・アプリケーションにとって実用的なシステム実装 。 発明の概要 本発明はソース画像を選択するステップ、ソース画像を整列させるステップ、 ソース画像のセグメントを選択するステップ、画像を向上するステップ、画像モ ザイクを形成するために画像をマージするステップを含む画像モザイクの作成方 法である。 更に、本発明はソース画像を選択する手段、ソース画像を整列させる手段、ソ ース画像のセグメントを選択する手段、画像を向上する手段、画像モザイクを形 成するために画像をマージする手段を含む画像モザイクの作成装置である。 図面の簡単な説明 本発明の教示は、添付の図面と組み合わせて次の詳細な説明を検討することに よって容易に理解することができる。図面において、 図1は全体的システムのブロック図であり、 図2はソース画像の選択を示す流れ図である。 図3Aは例示的な画像整列方法を示すフローチャートの図である。 図3Bは図3Aに示した整列プロセスの説明に有用な画像の図である。 図4は領域選択を示す画像の図である。 図5は画像の向上プロセスを示す流れ図である。 図6は画像マージング用のピラミッド構成を示すデータ構造の図である。 図7は本発明の実施形態の説明に有用なブロック図である。 図8は図7に示した前端整列プロセスとしての使用に適したプロセスのフロー チャートの図である。 図9は図7に示した前端整列プロセスの説明に有用なシステムによって処理さ れる画像を示す図である。 図10A及び図10Bは図7に示した前端整列プロセスの動作の説明に有用な 画像の図である。 図11Aは図8に示した相関プロセスとしての使用に適したプロセスのフロー チャートの図である。 図11Bは図11Aに示した相関プロセスの動作の説明に許容領域のグラフで ある。 図12は図7に示した後端整列プロセスの説明に有用な両像の図である。 図13は図7に示したブロック図の使用に適した第1の代替的後端整列プロセ スを説明するのに有用な画像の図である。 図14は図7に示したブロック図での使用に適した第2の代替的後端整列プロ セスを説明するのに有用な画像の図である。 図15は図7に示した後端整列プロセスとしての使用に適したプロセスのフロ ーチャートの図である。 理解を容易にするため、複数の図に共通した同一要素を示すためには可能な限 り同一の参照番号を使用した。 詳細な説明 本発明は複数のソース画像から1つのモザイク画像を作成する装置及び方法に 関する。本発明は、比較的低品質のソース画像から広い視界をもつ高品質の画像 を得る実用的な方法を提供する。この能力は、ビデオ・カメラ又はディジタル・ カメラが写真品質の印刷物を提供するために使用される、消費者及びプロの「写 真撮影」で重要な用途を有することができる。更に、それは表示されるビデオの 品質を改善するために使用することができる。 モザイク画像を形成する概略的プロセスを図1に示す。これは画像のソース1 01、一連の処理ステップ102〜106、及びモザイク出力手段108を含む 。更に、人間の操作員が処理ステップの結果を見て、選択されたステップを対話 的に制御するオプションの手段109が存在する。両像のソース101 モザイク作成プロセスは一組のソース画像から始まる。これらは各種の画像セ ンサ(例えば、ビデオ・カメラ、ディジタル静止カメラ、及び画像スキャナー) から来る「ライブ」の両像、各種の記憶メディア(例えば、ビデオ・テープ(V CR)、コンピュータ・ファイル)から来る画像、合成的に発生された画像(例 えば、コンピュータ・グラフィックス)、及び処理された画像(例えば、前に作 成されたモザイク)を含んでよい。 モザイク作成プロセスは5つの基本的ステップを含む。ステップ1:ソース画像の選択102 1つのモザイクに結合される一組の画像は利用可能なソース画像から選択され る。これは手作業又は自動的に行われてよい。選択プロセスは、モザイクの意図 された領域及び内容をカバーする一組の良好な品質の画像を発見する。 モザイクが一連のビデオ・フレームから構築されるとき、この選択ステップは モザイクに含まれる最初及び最後のフレームを指示することを含んでよい。この 選択は、すべての中間フレームが使用されるべきことを示す。スタート・フレー ム及びストップ・フレームは、カメラの系統的掃引動作を開始又は停止し、次に 動作がシステムにより自動的に検出される場合のように、ビデオ・カメラそれ自 体の制御を介して選択されてよい。 モザイクがスナップショットのコレクションから構築されるとき、ユーザが各 ソース画像を対話的に選択するのが望ましいかも知れない。 更に、ソースの選択は、より大きい画像から部分画像を切り取ることを含んで よい。例えば、ユーザは1つのソース画像内の人物の写真を切り取り、それをモ ザイクの他の画像内の新しい場所にマージしてよい。ステップ2:画像の整列103 選択されたソース画像は、それぞれが隣接画像の対応する部分と整合するよう に、相互に整列されるのが望ましい。整列は幾何学的変換又は「ワーピング」を 発見することを伴う。ワーピングは、選択された画像のすべてに適用された後、 それら画像を共通の座標系に配置する。幾何学的変換は通常は一組のパラメータ に関して定義される。これらはシフト、回転、拡張、射影、高次多項式、又は一 般的フロー(例えば、各サンプル点で異なった組のパラメータを伴う区分的多項 式)であってよい。ワーピング・テクニックは、1996年4月18日に出願さ れた「計算的に効率的なディジタル画像のワーピング」(Computationally Effi cient Digital Image Warping)と題する米国仮特許出願第60/015,57 7号に開示されている。この出願は本明細書に援用されている。 整列はユーザ・インタフェース109を介して対話的に行うことができるが、 それは対応する点をユーザに指示させ、次にこれらの点を整合させる(又は、あ る最小誤差基準に従って最も近似的に整合させる)変換パラメータを発見するか 、変換パラメータを対話的に指定する(例えば、マウス又は他のポインティング ・デバイスを用いて)ことによって行われる。 更に、整列は隣接画像の間で最良(match)を与えるワープ・パラメータを決定 する各種の画像処理方法によって自動的に行うことができる。整列は手作業ステ ップと自動的ステップを結合してよい。例えば、操作員は手作業で画像を粗い整 列状態にし、次に自動プロセスを呼び出して、正確な整列状態にするためにワー プ・パラメータをリファインメントしてよい。 整列プロセスはソース画像選択プロセス102と相互に作用してよい。整列は 、オーバラップの程度に関する情報、そしてビデオの場合には、カメラ移動の速 度に関する情報を提供する。画像のオーバラップがあまりに大きければ画像を廃 棄 してもよく、又はオーバラップの程度があまりに小さければ新しい画像を付け加 えてもよい。カメラの移動があまりに大きければ画像を廃棄してもよく、従って モーション・ブラーを生じるかも知れない。カメラ移動の突発的変化は、モザイ ク作成に使用されるビデオ・シーケンスの意図された開始及び停止を知らせるた めに使用されてよい。 本発明はすべてのフレームを同時に考慮する画像整列方法を与える。2つの画 像の間のある誤差関数を最小にすることによって2つの画像を整列させる従来の 整列アプローチではなく、ここに開示されるアプローチは、画像のオーバラップ する対の間のすべての誤差の合計である誤差関数を最小にすることによって、す べての画像を同時に整列させる方法、又は画像の部分集合を整列させる方法を提 案する。ステップ3:領域の選択104 オーバラップして整列させられたソース画像の部分領域が、モザイクに入れる ために選択される。選択プロセスはモザイクの領域を部分領域に効果的に区分し 、各部分領域が各ソース画像から取られたモザイクの一部分を表すようにする。 選択は手作業又は自動的になされてよい。手作業による選択は、マウスのよう なポインティング・デバイスを用いて隣接するオーバラップ画像の表示の上で境 界線を引くことによって、ユーザ・インタフェース109を介して対話的になさ れてよい。自動的選択は、場所(例えば、各ソース画像の中心までの距離)又は 品質(例えば、解像度又はモーション・ブラー)に基づいて隣接画像の間で適切 なカット線を発見する。 もっと一般的な選択アプローチでは、あるオーバラップ部分は平均的又はパタ ーン選択的融合により結合されてよい。ステップ4.画像の向上105 個々の画像は、それらのコントラスト又は尖鋭度を改善するか、これらの特性 を調整してそれらの隣接画像の対応する特性と同じになるようにするため、マー ジングの前に更に処理されてよい。向上は強度、色、及びフィルタの操作に基づ く。これら操作のパラメータは手作業又は自動的に決定されてよい。ステップ5.マージング106 このステップでは、選択されたソース画像が単一のモザイクに結合される。こ れは、継ぎ目又は他のマージ処理アーティファクトのない単一画像のように見え る結果を生じる方法でなされるのが望ましい。各ソースの選択された領域からモ ザイクに画素をコピーするだけでは、概して満足すべき結果を生じない。コント ラスト、解像度、又はカラーのような特性が実質的に異なる隣接セグメントの間 の境界は、モザイクで可視的継ぎ目として現れる。 画像を結合する方法は、フェザリング、多解像度マージング、平均化、及び融 合を含む。整列が良好で、隣接画像が同じ特性を有するならば、フェザリングは 満足できるものである。多解像度マージングは複数解像度レベルの画像をピラミ ッド/ウェーブレット画像変換領域で結合する。これは広い範囲の条件で可視的 継ぎ目を除去するのに有効である。平均化は、オーバラップ領域内のソース画像 が同等の品質であり正確に整列されているとき、信号対雑音比を改善する手段と して適切である。画像の融合は、選択が各場所、スケール、及び方向におけるソ ース画像の間で行われる多解像度マージング方法の一般化である。 ソース画像が所望のモザイクの全領域をカバーしない場合は度々起こる。モザ イク内には、どのようなソース画像によってもカバーされない穴が存在するか、 マージされたソース画像の周りには、所望のモザイク境界に延長されない領域が 存在するかも知れない。これらの領域はブランクのまま残されるか(例えば、黒 のような統一色を割り当てられる)、それらが目立たないような方法で充填され てよい。後者の効果は多解像度の内挿及び外挿によって達成されるか、ソース画 像の近くにある1つの小片から取られた画像「パッチ」又は隣接画像領域と同じ に見えるように人工的に発生されたパッチを用いて多解像度マージングを行うこ とによって発生されてよい。 ある場合には、1つの画像からの物体が他の画像によって与えられた背景の前 に現れるような方法でソース画像を結合することが望ましいかも知れない。この 効果は、意図された前景物体境界(例えば、人物の顔)に沿って第1の画像を注 意深くカットし、次に結果の画素を他の画像に挿入することによって達成される 。エッジはエイリアシング(画像のサンプリングに起因するギザギザの外観)を 避けるために混合されてよく、画像は、1つのソースからの陰影が他のソース内 の 背景物体上に落ちるようにする更に複雑な方法によって結合されてよい。境界は 手作業又は自動的に指定されてよいが、混合は自動的に行われる。ステップ6.モザイクのフォーマッティング107 一度モザイクが完了すると、それは所望の画像フォーマットを達成するために 更に編集又は処理されてよい。例えば、それは新しい座標系にワープされたり、 切り取られたり、画像処理テクニックを介して向上されてよい。これらのステッ ブは、自動的又はユーザ・インタフェース109を介して手作業で実行されてよ い。出力手段108 最終的なモザイク合成画像はディスプレイ上に与えられるか、プリントされる か、コンピュータ・ファイルに記憶されてよい。更に、モザイクは、新しいモザ イクの作成に使用するため、ソース画像101として利用に供されてよい。ユーザ・インタフェース109 人間の操作員はユーザ・インタフェースを介してこれらの処理ステップの任意 のもの又はすべてを観察及び制御してよい。通常、このインタフェースは画像表 示装置、及びマウス又はライト・ペンのようなポインティング・デバイスを含む 。操作員は可視ユーザ・インタフェースを介してソース画像、画像領域、及びこ れら画像上の操作を指定してよい。更に、操作員はスライダ・バー又は他の現実 又は仮想の「ノブ」を介して操作パラメータを制御してよい。操作員は異なった 画像上で対応点を指定することによって、又は仮想ノブを使用して画面上で画像 をプッシュ、ストレッチ、又は回転することによって画像の整列を手作業で援助 してよい。 標準のユーザ・インタフェース方法(例えば、キーボード及びポインティング ・デバイス)に加えて、本発明はビデオ入力のための固有のユーザ・インタフェ ースを与え、ユーザが所定の動作でビデオ・カメラを動かすことによってシステ ム機能とインタフェースすることができるようにする。各々のそのような所定の カメラ動作はモザイク処理プロセスのある局面を制御するように解釈される。 注意すべきは、モザイク作成のステップの順序は、ある場合には交換されてよ く、またあるステップは省略されてよいことである。例えば、向上ステップはセ グメント選択ステップの後、又は整列ステップの前、又は画像選択ステップの前 に実行されることができ、又は全く実行されなくてもよい。画像の選択 ソース画像選択ステップ102は、図2に示したステップのような追加のステ ップを含んでよい。ソース画像は内容、品質、及びオーバラップの程度を含む幾 つかのファクタに基づいて選択されてよい。一般的には、ソース画像の選択プロ セスは反復的であり、従って最初に選択されたある画像は後に廃棄されてよく、 最初に選択されなかった画像が後に付け加えられてよい。内容に基づく選択201 通常、画像内容に基づく選択は手作業で行われる。これはより大きい画像から 小片をカットするステップを含んでよく、それらの小片は新しい画像に挿入され てよい。通常、そのような選択及びカットは、マウスのようなポインティング・ デバイスを使用してコンピュータ・ディスプレイ上で実行される。品質に基づく選択202 画像品質に基づく選択は手作業又は自動的になされてよい。ビデオ信号からの モザイク作成のように、非常に多くのソース画像が存在する場合、自動選択が普 通に使用される。この選択プロセスは、例えば、モーション・ブラー又は不十分 な露光のために劣化した画像を避けてよい。 もしソース画像がビデオ・シーケンスであれば、1つのモーション・ブラーは フレーム間の画像移動を最初に測定することによって検出されてよい。ブラーの 程度は、フレーム移動に比例して増加し、またフレーム間の時間の端数として、 各フレームに対する露光時間に比例して増加する。フレーム間の移動は画像整列 プロセス103によって与えられてよい。更に、露光時間はソース・ビデオと共 に与えられる情報の一部分として知られてよい。露光時間及び移動の積が、画像 内の画素と比較して大きい距離を表すとき、画像はブラーによって顕著に劣化す る。 ビデオ・シーケンスにおけるモーション・ブラーを検出する代替の方法は、画 像が他の方向では鋭いが、1つの方向でブラーを有するように現れるとき、その ブラーの程度を測定することである。画像に適用された簡単なフィルタが、画像 内の各画素位置でパターン配向を測定してよい(これはグラディエント・オペレ ータ又は配向エッジ検波器であってよい)。画像の拡張領域又は画像の全体にわ たってプールされたときの結果の配向が、1つの方向に異常に密集している場合 、これはモーション・ブラーを示すものと取ってよい。配向は1つの画像のクラ スタリングと隣接したオーバラップ画像のクラスタリングとを比較することによ って、異常に密集しているものと判断されてよい。 露光品質を決定する方法は、ソース画像の一組のスペクトル周波数帯域内のエ ネルギーを測定してよい。異なった露光と共に得られた所与のシーンの一組の画 像については、最大エネルギーを有する画像が最良露光を有する画像であるとし て取られてよい。一組のスペクトル帯域内のエネルギーは、その画像のラプラシ アン・ピラミッド表現の各種のレベル変動を計算することによって計算されてよ い。幾つかの帯域のエネルギーが、1つの画像について、オーバラップした画像 のそれと比較して低ければ、その画像は不十分な露光の可能性があるものとして 拒絶されてよい。オーバラップに基づく選択203 ソース画像のフレームは、隣接画像の間で適切な程度のオーバラップを与える ように選択されるのが望ましい。この選択プロセスは、一部はアプリケーション 及びモザイク作成システムに利用可能な計算リソースに依存する。一般的には、 オーバラップが大きければ、良好な品質整列及びマージングを達成するのがそれ だけ簡単になる。他方、オーバラップが大きければ、所与の領域をカバーするモ ザイクを作成するために、それだけ多くのソース画像が必要となり、従って計算 リソースのコストが大きくなる。オーバラップの程度は整列プロセス103によ って選択システムに与えられる。画像の整列 画像整列ステップは、カメラの動き及びレンズの歪みのようなファクタを補償 するのが望ましい。カメラの動きはオーバラップ画像の間で単純な投影変換を導 入するか、シーン内の物体の3次元分布に関連した、より複雑な視差変換を生じ ることができる。現在、これらのファクタに対応した整列方法が存在する。ここ で、モザイク画像領域の上で2つの次元に分布される画像の集合を整列させて、 各画像が隣接画像に対して上下及び左右に整列させられるようにする方法を定義 する。 画像の対を整列させる既存の方法は、2つの画像に適用されたとき、それら画 像のオーバラップ領域上で画像一致又は整合の計算値を最大にする幾何学的変換 を発見する手段を与える。クロス相関及び最小2乗誤差を含む各種の一致計算値 を使用することができる。 3つ以上のソース画像を同時に整列させる新しい方法は、ソース画像の各々に 適用されたときにすべてのソース画像についてグローバルな最良の一致を生じる 幾何学的変換を発見することによって、画像の対に使用される手順を一般化する 。グローバルな最良の一致は、オーバラップするソース画像の対に対する一致計 算値の適切な組み合わせとして定義される。一般的に、グローバルな最良整列を 発見する仕事は計算的に困難である。新しい方法は最良グローバル整列を発見す る実用的手段を導入する。 図3aはグローバル整列を発見する3ステッププロセスを示す。ステップ1:サブモザイクの順次作成301 まず、ソース画像は順次プロセスで1つ又は複数のサブモザイクに組み立てら れる。このプロセスはシード(seed)として使用される1つ又は複数のソース画 像を選択することから始まる。次に、他のソース画像を一時に1つずつ付け加え ることによって、各シードからモザイクが成長させられる。各々の新しい画像は 既存のモザイクと対になって整列させられ、次にモザイクに組み込まれる。代替 的に、それはすでにモザイク中に存在する画像の1つと整列させられ、その整列 のパラメータ及びオーバラップ画像の整列が数学的に結合されて、両像をモザイ ク整列に整列させるパラメータが得られる。 サブモザイクは、それぞれの新しいビデオ・フレームを先行するフレームに整 列させることによって、通常ビデオ・シーケンスから作成される。新しいサブモ ザイクは、カメラの動きの方向に顕著な変化があるとき常に開始されてよい。 この処理ステップは、ソース画像の全体的最良整列を与えるものではなく、対 となった両像の可能な整列の部分集合に基づいて、画像の部分集合の近似的整列 を与えるにすぎない。ステップ2:サブモザイクの近似的整列302 サブモザイクは相互に粗く整列させられる。実用的システムでは、このステッ プは手作業で行われるか、ジャイロスコープのようなカメラ配向センサから知ら れる粗いカメラ配向パラメータに基づくいてなされてもよい。更に、整列はサブ モザイクの対の整列に基礎を有するか、既知の画像処理整列方法を使用して隣接 サブモザイク内で選択されたフレームの対に基礎を有してよい。隣接サブモザイ ク間の正確な整列は可能でないことが度々である。ステップ1におけるサブモザ イクの対の整列は、拡張されたサブモザイクの上で小さな整列誤差の累積を生じ ることが可能である。結果として、各サブモザイクは隣接サブモザイクに関して 幾分歪みを生じるかも知れない。ステップ3:反復的リファインメント303 一度、すべてのソース画像の粗い全体的整列が発生されると、その整列は反復 調整プロセスを介してリファインメントされる。調整は階層的に、例えば、多解 像度ピラミッド画像処理フレームワーク内で実行されてよい。この方法を使用し て、最初にサブモザイクの低解像度表現について調整が計算される。これは全体 的モザイクの大規模整列を改善する。次に、サブモザイクはより小さなサブモザ イクに分解され、これらサブモザイクのために、通常より高い画像解像度で調整 が反復される。これは中規模での全体的モザイク整列を改善する。小さなサブモ ザイクは再び更により小さなサブモザイクに分解され、これらサブモザイクの整 列が調整される。これらの分割及び整列ステップは、所望の精度及び画像解像度 が達成されるまで(可能性としては個々のソース画像のレベルで)反復される。 個々のフレームの調整された整列、及び小さなサブモザイクは、「ファイン−コ ーアス(ファイン−コーアス、fine-coarse)」手順で(ステップ2の)より大 きなサブモザイクを再作成するために使用されてよい。「ファイン−コーアス」 及び「コーアス−ファイン」のパスは、所望の全体的整列が得られるまで反復さ れてよい。発明者は、大部分の応用例に対し単一のパスで十分であることを確認 した。整列を調整する方法 ステップ3における整列を調整する方法は、所与のソース画像(又はサブモザ イク)とその隣接オーバラップ画像(又はサブモザイク)のすべてとのグローバ ル整列を考慮する。オーバラップ隣接画像(サブモザイク)のすべての対に対す る計算値を結合する1つの一致計算値が計算される。次に、この結合された一致 計算値を最適化する幾何学的変換パラメータが発見される。グローバル整列は一 時に1つの画像(サブモザイク)について実行されるか、画像(サブモザイク) のグループについて同時に実行されてよい。これらのテクニックは、それぞれ以 下の方法1及び2として説明される。どちらの場合も、調整は、全体的モザイク を形成するすべての画像(サブモザイク)について、系統的に循環する。 これらのステップは、次のように更に明確に定義されてよい。すなわち、 N個のソース画像(又はサブモザイク)のシーケンス{Ik}が与えられてい るとき(O<k<N−1)、オーバラップするすべての画像の対からのすべての 整列誤差を加算することによって、1つのグローバル整列誤差を計算する。「整 列」とは変換の集合{Tk}であり、その各変換Tkが画像Ikをモザイクの共通 座標フレームワークにワープするものと定義する。もしWkが変換Tkによってワ ープされた画像Ikであるとすれば、オーバラップは整列させられた画像Wm及び Wnのすべての対の間で計算される。そのような画像の対はN2個が存在する。オ ーバラップが存在すれば、整列誤差Emnを計算することができる。例えば、Emn はオーバラップ領域における画像強度の差の2乗の合計、クロス相関、又は画像 整列の品質の他の任意の計算値であることができる。画像がオーバラップを有し ない場合、Emnはゼロである。従って、グローバル整列誤差EはEmnのN2個の 画像の対のすべてにわたる合計である。画像の対の間にオーバラップが存在しな い解を避けるために、標準の方法が使用される。これらの方法は、少なくとも或 る所定のオーバラップ領域又は或る所定数のオーバラップ対を有する整列のみを 考慮することを含む。各々の画像対の一致の計算値は、オーバラップ領域で計算 値を除算することによって正規化されてよい。 モザイク座標系は、本発明では問題としない。それは入力画像の1つの座標系 でも、他の方法によって計算された他の座標系でも、ユーザによって手作業で選 択された座標系でもよい。 本出願で使用されるように、グローバル整列は、グローバル整列誤差Eを最小 にする変換の集合{Tk}である。変換のこの集合は、グローバル整列誤差Eを 最小にする最小化方法を使用して発見することができる。 例えば、図3で提案されたグローバル画像整列を考える。この整列の誤差関数 は、オーバラップ領域を共用する画像のすべての対から計算される。例えば、陰 影を付けられた領域321は、フレーム311及びフレーム312の間のオーバ ラップ領域である。領域322はフレーム313及び314の間のオーバラップ である。 例示の方法はすべての画像対を使用して定義されたが、計算の速度を増大させ るため、又は関連する画像対を、或る他のプロセスによって前もって決定するこ とができる場合には、画像対のより小さな部分集合を使用してよい。例えば、オ ーバラップ領域を共用するすべての画像対のために誤差関数を計算する代替方法 は、隣接した画像対のみを使用することである。画像対の間の隣接性を定義する 1つの可能な方法は、エフ・オーレンハマーによって1991年の「(オーレン ハマー)計算調査」第23巻、345〜405ページに発表された「ボロノイ線 図、基本的幾何学データ構造の調査」で説明されている「ボロノイ線図」("Voronoi Diagrams,a Survey of Fundamental Geometric Data Structures",F.Aurenhamm er,(Aurenhammer)Computing Surveys,Vol 23,1991,pp 345-405)を使用するこ とである。各フレームの中心をボロノイ・セルの核として使用し、共通の頂点を 共用するボロノイ・セルを有するフレームを「隣接」するものと定義する。 すべてのオーバラップ領域、又は隣接する画像対のみのオーバラップ領域につ いて整列誤差を同時に最小化することは、計算を費やすであろう。発明者は計算 の複雑性を低減する幾つかの簡単な実施方法を定義した。方法1 −「コーアス−ファイン」リファインメントを伴う分析的最適化 最初に、一致計算値はオーバラップ・フレームの対の間で計算される。一致計 算値は、現在の予測された最適一致の位置に中心をもつ小範囲のパラメータ値に 対する表面として表される。これらの表面は、それらの整列計算値を記憶するこ とによって明示的に記述することも、パラメータ表面として暗黙的に記憶するこ ともできる。従って、全体の最良整列の推定は、オーバラップ・フレームの対の ために一致表面の集合に基づき分析的に決定することができる。ソース画像は推 定された最良一致位置にワープされ、一致表面が再び計算される。全体の整列を 連続的に改善するために、プロセスは数回反復されてよい。これらのステップは 、最初の整列が各ソースの低解像度表現に基づき、最後のリファインメントが各 ソースの高解像度表現に基づくように「コーアス−ファイン」様式で更に実行さ れてよい。 この方法における反復が望ましい理由は、対による一致計算表面が単純変換の ために計算することができるのに対し、グローバル整列は更に複雑な変換を使用 して推定されるためである。例えば、一致計算表面は平行移動のためだけに計算 されつであろうが、複数の隣接画像に対する画像のグローバル整列は、アフィン 変換を含むであろう。方法2 −局所整列リファインメント ソース画像の集合が粗く整列されると、各画像の整列パラメータがオーバラッ プ隣接画像への一致を最適化するために調整されてよい。これは各ソース画像に ついて順番に反復され、次に数回反復される。更に、プロセスは「コーアス−フ ァイン」リファインメントとして実行されてよい。実行は、直列的で1つの画像 の変換が各反復で調整されるか、並列的で複数のオーバラップするソース両像が それぞれの隣接画像と同時に整列させられてもよい。領域の選択 最終モザイク内の各点は幾つかの入力画像によってカバーされてよい。これら 入力画像の1つがモザイク内のその点で画素値を定義するために選択されるのが 望ましい。SRkを、モザイクに含まれる画像(変換された)Wkの部分領域とす る。SRを選択するためには、幾つかの方法を使用してよい。方法1:近接 SRを選択する最も単純な方法は、画像の中心への近接による方法である。モ ザイク画素pが幾つかの画像Wkによってカバーされるものとする。近接基準は 、画像pの値について、pに最も近い中心を有するその画像Wkから取られるよ うに選択する。この碁盤目状配列は「ボロノイ碁盤目」として知られ、結果のS Rは凸領域である。この場合、2つの隣接画像の間の境界は2つの画像中心を接 続する線分の2等分線である。ボロノイ碁盤目は前記のオーレンハマーによる論 文 に説明されている。 例えば、入力画像が水平方向のみの平行移動を有するとき、各入力画像はその 中心の周りの直立矩形ストリップのみを最終モザイクに寄与する。 領域選択の例を図4に示す。フレーム401、402、403、及び404は 整列後の表示である。作成されたモザイク410の中で、領域411はフレーム 401から取られ、領域412はフレーム402から取られ、領域413はフレ ーム403から取られ、領域414はフレーム404から取られ、領域415は フレーム402から取られ、領域416はフレーム403から取られる。方法2:画像の品質 SRは画像の品質に基づいて選択されてよい。モザイクの画素pに割り当てら れる値は、その点で最良画像品質を有するものと判断されたソース画像から取ら れる。画像品質のレーティングはコントラスト又はモーション・ブラーのような 基準に基づいてよい。例として、グラディエントの大きさが使用されてよい。こ れは、画像が鋭くなれば、それだけ高くなる。そのような選択基準は1994年 6月28日に付与された「画像を融合する方法及び装置」(Method for Fusing Images and Apparatus Therefor)と題する米国特許第5,325,449号に 説明されている。この特許は、画像グラディエント計算の追跡について、本明細 書に援用されている。特定の領域をカバーするすべてのオーバラップ画像を使用 して、最高品質を有する画像が領域を表すために選択される。方法3:整列 整列の程度は2つの画像間のオーバラップ領域で均一でない場合が度々である 。これら画像のSRの境界を定義するカット線は、整列が特に良好な点の中枢に 沿ったオーバラップ領域を通過するように置かれることが望ましい。これは最終 モザイクで整列ミスが最も目立つモザイク継ぎ目に沿って整列ミスを最小にする 。点のこの中枢を発見するために、オーバラップ領域の各画素で、残留整列ミス ・ベクトルが推定される。次に、オーバラップ領域を区分して残留整列ミスの合 計が最小になるようなカット線が発見される。より良好な整列が画像の中心の近 くにあり、整列が画像周辺部に行くにつれて劣化するとき、ボロノイ型の碁盤目 配列はこの基準への近似である。画像の改善 個々の画像は、それらのコントラスト又は尖鋭度を改善するために、又はこれ らの特性を隣接画像の対応する特性と等しくなるように調整するため、マージン グの前に更に処理されてよい。改善は強度、色、及びフィルタ操作に基づく。こ れら操作のパラメータは手作業又は自動的に決定されてよい。マージング 実際には、ソース画像のそれぞれのSRからモザイクに画素値を単純にコピー することによってソース画像をモザイクに組み立てることは望ましくないかも知 れない。これは目に見える継ぎ目を生じる。従って、隣接画像領域を一緒に混合 することが望ましい。特に効果的な混合手段は、まずソース画像を2つ以上の帯 域空間周波数成分の集合に分解し、次に各帯域の画像を、別個に、その帯域内の 平均波長に比例した遷移ゾーンの上でマージする。この方法の既知の実施形態は 、画像をそれらのバンドパス成分に分解するためにラプラシアン・ピラミッド両 像変換を使用する。 画像のマージングにラプラシアン・ピラミッドを使用する場合の説明について は、前記のバートIを参照されたい。この出版物は、画像からラプラシアン・ピ ラミッドをどのように作成するか、ラプラシアン・ピラミッドから画像をどのよ うに作成するかについても説明している。 簡単に言えば、2つのラプラシアン・ピラミッドが作成されるが、双方のピラ ミッドは、最終モザイクMのサイズを有する画像に基づく。1つのピラミッドM は最終モザイク画像Mに対するもので、他のピラミッドLは現在の画像に対する ものである。各ソース画像Ikは、まずTkによって、モザイクと整列させられた 画像Wkに変換(ワープ)される。次に、ワープされた画像は、指定された値の 画素で充填するか、後に説明する更に一般的な外挿方法によって、モザイクの全 領域をカバーするように拡張される。次に、ラプラシアン・ピラミッドLがWk について計算される。ピラミッドLからの値は、Wkから来るセグメントSRkの 位置に基づいて、ピラミッドM内の適切な位置にコピーされる。これが各画像に ついて行われた後、入力フレームによってカバーされた領域に対応するピラミッ ドM内のすべての要素は、割り当てられた値を有する。次に、最終モザイクM がラプラシアン・ピラミッドMから作成され、継ぎ目のないモザイクが与えられ る。 本発明の1つの実施形態において、多解像度マージング・プロセスは、ソース 画像それ自体ではなく画像のグレイ・スケール変換版に基づいて実行される。露 光特性が顕著に異なる画像をマージするために、まず画像は対数変換のような可 逆的圧縮スカラー変換によって画素ベースで変換される。多解像度マージングが スカラー変換されたソース画像で実行され、次にマージングを介して得られた画 像のためにスカラー変換を反転することによって、最終モザイクが得られる。 この手順が有用である場合の例は、異なった利得を有する画像をマージするこ とが普通に起こる場合である。そのような画像は、自動的利得制御を有するビデ オ・カメラによって取られるか、各画像に異なった利得を適用したスチル・カメ ラによって取られてよい。利得変換は画像強度の乗算によって近似することがで きる。滑らかな利得変換を行うためには、マージングの前に対数変換を画像に適 用することによって、より良好な混合が得られる。変換された画像がマージされ 、混合され変換された画像の指数(又は真数)が最終結果を与える。 カラーの画像では、前記の変換が、画像環境に依存して強度成分のみに適用さ れるか、各カラー信号成分に別々に適用されてよい。ピラミッドにおける領域選択 多解像度マージング・プロセスの実施形態は、バートIに与えられる。この実 施形態は、各ソース画像をバンドパス成分の正規の集合に分解するためにラプラ シアン・ピラミッドを使用する。2つの画像がマージされるとき、これら画像の 1つのための重みづけ関数(例えば、W1)が、マスク画像のガウス・ピラミッ ドを作成することによって定義されることができる。マスク画像は、領域SR1 内では1に定義され、この領域の外側では0に定義される。そのようなガウス・ ピラミッドはW1のラプラシアン・ピラミッドのそれぞれの対応する各サンプル によって乗算される重みを与える。この重みづけは比例混合規則に従う。もし2 つだけのソース画像W1及びW2が存在し、領域SR1及びSR2がモザイク領域の 相補部分を表すならば、多解像度マージングは単純な手順に従う。すなわち、( 1)W1及びW2のためのラプラシアン・ピラミッドを構築する。(2)領域 SR1及びSR2内にあるマスクのためにガウス・ピラミッドを構築する。(3) 各ソースについてサンプル・ベースでラプラシアン成分及びガウス成分を乗算す る。(4)結果の積ピラミッドを加算する。(5)所望のマージされた画像を回 復するため、逆ラプラシアン・ピラミッド変換を実行する。 この発明の開示では、バート及びアーデルソンによって定義された方法の2つ のリファインメント(refinement)を紹介する。1.正規化を伴う重みづけ加法 もし3つ以上の画像が使用され、それぞれのセグメントSRkが、穴又はオー バラップを生じることなくモザイク画像領域を正確にカバーするならば、前記の 手順は任意数の画像のマージングに一般化することができる。部分領域のために ガウス・ピラミッドによって与えられた全ての重みは、各サンプル位置で正確に 1に合計される。しかし、もしSRkがモザイク画像領域を正確にカバーしなけ れば、各サンプル位置での重みの合計は1になるかも知れない。この場合、画像 は前記のステップ1から4までのように結合されてよい。ここで、2つの新しい ステップが導入される。すなわち、(4b)ガウス・ピラミッドはサンプル・ベ ースで合計され、(4c)結合されたラプラシアン・ピラミッド内の各値は、結 合されたガウス・ピラミッド内の対応する値によって除算される。これはラプラ シアン値を正規化する効果を有する。最終モザイクは、ステップ5のように、逆 変換を介して回復される。2.単純化された選択 結合されたラプラシアンを作成するために、比例混合用の重みづけ関数が単に 暗黙的である単純化された方法を使用してもよい。この手順では、各ソース画像 のためのラプラシアン・ピラミッドが前のように作成される。(ステップ1)。 ガウス・ピラミッドは作成されない。(ステップ2及び3はない。)次に、対応 するセグメントSRkの領域に落ちる各ソース画像Wkのラプラシアン・ピラミッ ドの全レベルから全サンプルをモザイク用のラプラシアンにコピーすることによ って、モザイク用のラプラシアンが作成される。(ステップ4)。モザイクは前 と同じように逆変換を介して得られる。(ステップ5)。この単純化された方法 は、ソース画像セグメントSRkがモザイク領域を正確にカバーして正規化が 必要でないとき使用することができる。逆ラプラシアン・ピラミッド変換は、多 解像度マージング方法によって使用される比例混合を提供するために、選択され たバンドパス成分をぼかす効果を有する。奇数幅発生カーネルで作成されたラプ ラシアン・ピラミッドのレベル1における空間位置(i,j)は、デカルト座標 x=i21及びy=j21にあることが注意される。もしこれらの座標が、画像Wk のラプラシアン・ピラミッドにあるサンプルについてSRk内に落ちるならば、 そのサンプル値はモザイク用のラプラシアンにコピーされる。 この単純化された方法を図6に示す。提示を明瞭にするため、1次元の場合を 図6に示すが、画像の2次元の場合への一般化は簡単である。3つの整列させら れた画像W1、W2、及びW3が与えられた場合、最終モザイクは画素0〜4では 画像W1、画素5〜10では画像W2、及び画素11〜16では画像W3から作成 される。 M0(x)の値は次のように割り当てられる。すなわち、画素X=0...4 については、それらは画像W1のために同じくx=0...4として発生された ラプラシアン・ピラミッドL0(x)の同じレベルから取られる。画素x=5. ..10については、それらは画像W2のためにx=5...10として発生さ れたラブラシアン・ピラミッドL0(x)から取られる。画素x=11...1 6については、それらは画像W3のためにx=11...16として発生された ラプラシアン・ピラミッドL0(x)から取られる。 ピラミッドの残りについては、Mi(x)の値は、モザイク画像M内の位置2 ixに寄与する画像のラプラシアン・ピラミッドの対応するi番目のレベルから 取られる。従って、M1(x)については、x=0...2の値は画像W1のラプ ラシアン・ピラミッドから取られ、x=3...5の値は画像W2のラプラシア ン・ピラミッドから取られ、x=6...8の値は画像W3のラプラシアン・ピ ラミッドから取られる。 この例では、大部分の実用的な場合と同じように、トップ・レベルが単一の画 素のみになるまで、ラプラシアン・ピラミッドは作成されない。そのような場合 、ピラミッドのトップ・レベルは画像のガウス・ピラミッドの同じレベルから取 られる。従って、G3は対応する画像のガウス・ピラミッドから取られる値から 構 成される。画像境界の処理 個々のソース画像Wは、最終モザイクと同じ座標系及びサンプル・グリッド上 で定義される。しかし、それらは概してモザイクよりも小さい。ラプラシアン・ ピラミッドが各画像Wkについて作成されるとき、拡張された画像領域をカバー するため、最終モザイクの全領域に至るまで、少なくとも暗黙的にこの画像を外 挿するのが便宜的である。この拡張が望ましいのは、最終モザイクに寄与するピ ラミッドからの全サンプル(すなわち、方法1の非ゼロの重みを有するもの、又 は方法2のSRkの領域に落ちるもの)が良好に定義された値を有することを保 証するためである。 この外挿はオリジナルの画像で行うか、ピラミッドが作成されるときに行うこ とができる。もしオリジナルの画像領域内で行われるならば、セグメントSRk 内の点が画像の境界の距離d内にないことを、外挿によって保証されるのが望ま しい。ここで、d−D2Mであり、Mはマージングに使用されたラプラシアン・ ピラミッドのトップ・レベルであり、Dはピラミッド作成に使用されたフィルタ ・カーネルのサイズに関連した小さな整数である(例えば、Dは、偶数個のタッ プを有する対称フィルタの線形フィルタ・カーネル・サイズの半分に等しい)。 画像領域外挿の単純な方法は、エッジ画素の値を複製することである。モザイク 作成に使用されてよい他の方法は、他のソース画像から対応する画素をコピーす ることである。もしこれらの他の画像が露光特性においてWkから顕著に異なっ ていれば、それらはWkと同じ特性をもつように濃度変換されてよい。外挿は、 ピー・ジェイ・バートによって1988年の「ICBR」の300〜302ペー ジに発表された「モーメント画像、多項式適合フィルタ、及び表面内挿の問題」 ("Moment Images,Polynomial Fit Filters,and The Problem of Surface Int erpolation,"P.J.Burt,ICPR 1988,pp.300-302)に説明されるような方法によ ってピラミッド作成中に行われてよい。カラー画像 カラー画像を処理するには、幾つかのアプローチがある。カラー画像は任意の 許容されたカラー標準(RGB、YUV、Lab、その他)で3次元画像として 表すことができる。 画像の整列は1つの成分だけ(例えば、強度Yの成分)で行うことができる。 その場合、通常のモノクロ整列テクニックを使用することができる。代替的に、 整列は、2つ以上の成分を含む誤差関数を最小にしてよい。 画像のマージングは、例えば、強度Yの成分のように単一の成分について行う ことができ、その場合、他の2つの成分信号はマージされた画像から直接に取ら れる。代替的に、画像のマージングは各成分(例えば、R、G、B成分、又はL 、a、b成分)について別個に行われ、各成分がモノクロ画像として処理されて よい。 モノクロ・モザイクについては、スプライニングによる画像間継ぎ目のぼかし によって、人間の観察者は、それが部分画像から構成されていることを識別する ことができない。もしスプライニングが行われていれば、基本的な明度バランシ ングすら必要でないことが度々である。部分画像の融合が起こるのは、人間の視 力は高空間周波数(例えば、継ぎ目)での輝度の差に対しては敏感であるが、低 空間周波数(例えば、部分画像を横切る)に対しては敏感ではないからである。 他方、クロミナンスの差は低空間周波数でより有効に知覚される。従って、継ぎ 目がモザイク内の2つの部分画像の間でぼかされるときでも、部分画像が整合さ れた後、それらが一緒にスプラインされる前に、部分画像のすべてを色補正する ように注意しないと、画像間のカラーの不均衡が識別可能である。 ここで、画像間のオーバラップ領域にあるカラーの間の比較に基づいて、モザ イク内の部分画像の間で色補正を達成する方法を説明する。2つのオーバラップ する画像について、この方法は、第2の画像を第1の画像に最も近くもってくる 色空間アフィン変換を決定するため(R、G、B成分信号の間で)、画像オーバ ラップ領域にわたって最小2乗適合を実行することを含む。次に、結果のアフィ ン変換が第2の画像の全体に適用される。目的関数を3つ以上のオーバラップす る画像に拡張することは、単にアフィン変換を画像の1つを除くすべての画像に 帰属させ(これらの変換は、変換されていない画像又は基準画像に関する)、次 にすべてのオーバラップ領域におけるすべての画素について、2乗されたRGB 色差を加えることによって行われる。 画像形成の物理的過程はアフィン色補正の強い動機を与える。かなり一般的で 自然な環境では、色空間におけるアフィン変換は、(a)異なった獲得システム に起因する2つの画像の間の色空間の差、(b)異なった獲得時間に起因する照 明スペクトルの差、(c)他の画像には現れない1つの画像内の曇り又は他の半 透過の媒体、を補償する。これは、1980年の「MITRLE」第122号、 214〜221ページ(a paper by M.H.Brill,published in MIT RLE Progres s Reports No.122(1980),214-221)に発表されたエム・エッチ・ブリルによる論 文に記載されている。 前後関係におけるアルゴリズムの実行を以下に概説する。 1.前記の画像整合アルゴリズムを輝度画像にのみ適用し、オーバラップ領域 を識別及び索引し、輝度画像派生変換をすべての3成分カラー信号に適用する。 2.基準画像G1を識別し、それぞれの非基準画像Gkと基準画像との間で最良 の色空間アフィン変換を決定するため、すべてのオーバラップ領域にわたって同 時の最小2乗調整を行う。目的関数はすべてのオーバラップ領域(例えば、部分 画像i及びkの)におけるすべての画素にわたる(AkGk(x)+bk−AiGi (x)−bi)2の合計である。ここで、Gk(x)は画像kの画素位置xにおけ る(R、G、B)の列ベクトルであり、Gi(x)は画像iの画素位置xにおけ る(R、G、B)の列ベクトルである。Ak及びAiは3x3マトリクスであり、 bi及びbkは列3ベクトルである。基準画像1については、A1=I及びb1=0 である。マトリクスA及びベクトルbを含むアフィン・パラメータを解くことは 、同数の未知数における12N−12の同時線形方程式を解くことを含む。ここ で、Nはモザイクにおける部分画像の数である。 3.前記のアルゴリズムを使用してR、G、及びBのカラー信号成分に別々に 画像スプラインを実行する。 4.画像モザイクが実現可能なディジタル値の範囲内にあることを確認する。 これは、すべての負の画素値を除去するように選ばれた定数を、画像内の各成分 信号(すなわち、R、G、及びB)に加えることによって行われる。次に、画像 上で最大値を最大獲得可能ディジタル値に下げるのに十分な定数によって各成分 をスケールする。 もし画像が、表現された物体のサイズに関して不完全に整合されるならば、前 記のステップ2の目的関数における個々の画素値を、局部的画素平均で置換する ことができる。 もし整合が画素レベルでは貧弱であるが、画像オーバラップ領域が依然として 識別可能であれば、それぞれのオーバラップ領域内でカラー信号及び成分間相関 マトリクスを一致させるために、ステップ2を変更してアフィン変換を最適化し てよい。相関マトリクスの2次変換特性は、1994年の「J.Opt.Soc.Am.A ,11」の3003〜3010でジー・ヒーリー及びディー・スレーターによって 発表された論文(a paper by G,Healey and D.Slater,published in J.Opt.So c.Am.A,11(1994),3003-3010)に、カラー認識について説明されている。新しい 目的関数は、すべてのオーバラップ領域(例えば、部分画像i及びkの)につい て(AkCkAk T−AiCiAi T)2及び(Akmk+bk−Aimi−bi)2の重みづ けられた合計の合計である。注:Akを完全に指定するためには、第3ランク・ テンソルとして変換される第3モーメントを比較する類似項を付け加えることが 望ましい。ここで、mk及びCkは、3ベクトル信号平均及び画像i及びkのオー バラップ領域内の画素に対する信号間3x3相関マトリクスであり、mi及びC iは同様に定義される(依然としてi、kのオーバラップ内で)。結果の最小2 乗問題はアフィン・パラメータ内の方程式の非線形集合に導かれる。もしこれら の方程式を解くために必要な計算量があまりに大きければ、代案としてアフィン 変換中の完全3x3マトリクスを対角マトリクスで置換することができる。その 場合、最小2乗方程式はマトリクス要素の2乗で線形となり、容易に解くことが できる。2つのオーバラップ画像の特殊な場合には、画像G2の各カラー成分は 、変換によって、画像G1の平均及び分散に一致する平均及び分散を有する画像 G2’に補正される。 G2’=aG2+b ここで、 a=シグマ1/シグマ2 b=平均1−(シグマ1/シグマ2)平均2 平均1及びシグマ1は、画像G1(基準画像)に対する問題のカラー信号成分に おける画素値の平均及び標準偏差であり、平均2及びシグマ2は、画像G2(検 査画像)に対して同様に定義される。各応用例では、更に念入りのカラー調整を 試みる前に、このステップが十分のカラー補正を与えるかどうかを確認すべきで ある。 カラー画像を処理するこの代替方法の基礎は、モザイク中の部分画像の間でア フィン色補正を実効化するためにオーバラップ画像領域を使用することである。 アフィン色補正は色再現及び機械視覚の分野でしばらくの間論議されたが、それ は大きな成果を収めなかった。なぜなら、正しいアフィン変換を発見するには、 通常は、非常に制限的なスペクトル仮定又は画像内で正しく区分された領域の基 準カラーの定義を必要としたからである。検査及び基準画像の間のオーバラップ の存在は、これらの問題を不要にし、従ってアフィン補正が直接に計算されるこ とができるようにする。このアプローチは、一連の画像オーバラップによって基 準画像に接続されるすべての他の画像に推移的に拡張することができる。整列の対話的観察 整列の後、画像は(任意選択的に)ユーザに与えられる。モザイクの提示は、 すべての画像が共通の座標系に変換される図3Bの提示と同じように行われる。 観察は、モザイク内の各画像の位置が、オリジナルの画像と同じように与えられ るように行われる。1つのそのような可能な対話は、カーソル又は他のポインテ ィング・デバイスをモザイクを横切って移動することによって行われる。カーソ ルを含むモザイク内の領域に寄与するビデオ・フレームは、画面の1つの部分に 表示され、その間に、寄与している領域及び画像境界がモザイク上に表示される 。この対話は、操作員が画像の品質及びそれらの整列を検査することができるよ うにする。例えば、操作員は貧弱な品質(例えば、ブラー・ノイズ)を有するフ レームを削除し、その間に、モザイク内のすべての画像が少なくとも1つの入力 画像によってカバーされることを確認してよい。 前記の対話の効果の1つは、ユーザにビデオを観察する新しい方法を与えるこ とである。ポインティング・デバイスがモザイク上を移動する方向及び速度を制 御することによって、ユーザは今やビデオの表示を制御することができる。特に 、ユーザは前方/後方のビデオ表示を制御すると共にその速度を制御することが で きる。 貧弱な整列を補正するためには、追加的なユーザ対話が望まれるがも知れない 。自動的整列は、例えば、画像のオーバラップが小さいとき、画像が過度のノイ ズ量を有するとき、又は画像が少しの識別特性しか有しないときに失敗するかも 知れない。そのような場合、ユーザは、例えば、マウスを用いてフレームをドラ ッグするか、整列していない画像に現れる共通の特徴をクリックすることによっ て、画像を手作業で整列させてよい。システムは、この処理からフレーム整列変 換を計算することができる。そのような変換は、更なる自動整列のために初期推 定として働くことができ、今や自動整列は、初期推定が改善されたために、より 良好な結果を与えるかも知れない。ビデオ・モーション分析に基づく装置制御 データ処理装置又はコンピュータ・プログラムを能動化する通例の方法は、「 オン」ボタン又はその等価物を押し、次に「オフ」ボタン又はその等価物を押す ことである。しかし、ある場合には、装置の動作は、それが処理している情報に よって制御される。1つの例は「音声能動」応答機械であって、この機械は、音 声信号が電話回線上で検出されないとき、到着メッセージの記録をオフにする。 本発明は、カメラが動いているときだけ、又は動いている物体が視界で見える ときだけ関連動作を有する装置及びコンピュータ・プログラムを制御するために 、ビデオ・モーション分析モジュールを使用することを含む。ビデオ・モーショ ン分析は、エム・テカルプ(M.Tekalp)による著作「ディジタル・ビデオ処理」(Dig ital Video Processing)に説明されているように周知である。カメラの動き又は 画像物体が分析され、特定のモーション・パターンは装置からコンピュータ・プ ログラムへの命令として解釈される。 動き制御の1つの応用例は、ビデオ信号の第2のフレーム又は画像シーケンス からパノラマ画像を作ることである(ビデオブラシ)。この装置の制御は次のよ うにすることができる。すなわち、画像のモザイク化はカメラが静止した2つの 期間の間でのみ起こる。この例では、画像のモザイク処理が能動化された後、プ ロセスは、カメラが静止するまで待ち(フレーム間の動きは所与のしきい値より も小さい)、カメラの動きが或るしきい値を超過したときモザイク処理を開始し 、 カメラが再び静止したときモザイク処理を停止する。モザイク・プロセスの始め 及び終わりを制御するカメラ・モーションに加えて、カメラ・モーションの方向 が、モザイク化プロセスそれ自体の内部詳細を制御するために使用されてよい。例示の実施形態 本発明の例示の実施形態を図7〜図15を参照して説明する。この例示の実施 形態は、携帯低解像度ディジタル画像ソース(例えば、ビデオ・カメラ710及 びディジタイザ712又はディジタル・ビデオ・カメラ)、及び変更されていな いパーソナル・コンピュータ(図示されていない)上で実行されているソフトウ ェアを使用して、高解像度ディジタル画像ストリーム714をリアルタイムで捕 捉するシステムである。このプロセスは、画像が受け取られるにつれて素早くそ れを処理し初期モザイク画像718を生成する高度に効率的な「前端」画像整列 プロセス716と、高度に正確な「後端」画像整列プロセス720と、継ぎ目の ないモザイク画像724を与えるマージング・プロセス722とを結合すること によって達成される。 全体のシステムがその機能を実行するために、前端整列プロセスは、画像捕捉 動作の間、連続的なフレーム間画像整列を実行する能力を有することが望ましい 。このプロセスの終了結果は、オーバラップしているソース画像フレームのリス トから構成される初期モザイク・データ構造718であり、各ソース画像は、シ ーケンス内でフレームを隣接した他のフレームと関連づける動きパラメータを有 する。動きパラメータのこれらの集合の任意の1つが不在又は不正確であれば、 モザイクを組み立てることは困難であるかも知れない。なぜなら、画像シーケン スの1つの部分と画像シーケンスの残りの部分との関係が定義されないかも知れ ないからである。従って、信頼性のあるシステム機能を提供するためには、前端 整列プロセス716は、1)リアルタイムで機能し、2)フレームのすべてのた めに正しい整列結果を高い確率で戻すことが望ましい。 例示の前端整列プロセス716の目的は、全体の入力画像ストリームを関連づ けることによって初期モザイクを定義する最小整列チェーン(MAC)を発生す ることである。このMACは、一連の入力画像、及び各画像をチェーン内の前の 画像へのみ順次に整列させる整列パラメータから構成される。それは、整列プロ セスが進行するためにできるだけ少ない入力画像を含むという意味で、最小のも のである。この最小特性が望ましい理由は、それが後端整列プロセス720及び 混合プロセス722で必要とされる処理及び記憶域の量を低減するからである。 この前端整列プロセスの実施形態を図8に示す。それは2つの動作原理を含む 。すなわち、適応性画像サンプリングと適応性フィルタ選択である。他の実施形 態は、これら又は同様の原理に基づいてよい。 MACは入力画像ストリームの最初及び最後の画像を論理的に含むから、プロ セスは、最初の捕捉画像をMACの最初の成分及び初期基準画像(RI)として 指定することによってスタートする。RIは、1)到着画像とRIの間の推定オ ーバラップが或るしきい値(例えば、画像寸法の50%)よりも小さくなるか、 又は、2)整列の失敗が検出されるまで、到着画像の各々を連続的に整列させる ために使用される。選択された画像オーバラップの量は、MAC内の画像数を最 小にしたい希望と、整列をリファインメントする後端整列プロセスのために十分 なオーバラップを提供したい希望とをバランスさせる。整列は、図1から図3ま でを参照して前に説明したような任意の効率的な画像ベース整列テクニックを使 用して実行することができる。効率性と強靭性のために、多解像度画像相関テク ニックを使用してよい。 図8で、画像はディジタル化された画像ストリーム714からステップ810 で受け取られる。プロセスは、ステップ812で画像のピラミッド記述を発生し 、ステップ814で、このピラミッドを基準ピラミッドとして指定する。次に、 ステップ816で、プロセスはストリーム714から次のフレームを検索する。 ステップ818で、プロセスはこの画像のためにピラミッド記述を発生する。ス テップ820で、プロセスは現在の画像の新しく発生されたピラミッド記述を基 準画像のピラミッド記述に相関づける。ステップ822で、もし画像間で検出さ れた相関が良好であれば、制御はステップ824に渡される。ステップ824は 、2つの画像間の変位(Δx)がしきい値よりも小さいかどうかを決定する。も しそれが小さければ、現在の画像と基準画像の間のオーバラップは希望よりも大 きく、従ってフレームはステップ826でバッファに置かれ、制御はステップ8 16に戻されて、ストリーム714からの新しい画像がテストされる。ステップ 8 24で、もし変位がしきい値よりも大きければ、ステップ828が実行される。 ステップ828はフレームをMACに付け加え、新しく加えられたフレームのピ ラミッドを基準ピラミッドとして指定する。 しかし、ステップ822で、もし現在の画像と基準画像との間に良好な相関が 存在しなかったならば、ステップ830が実行される。ステップ830は最も近 時にバッファされた画像を基準画像として指定する。この画像はバッファされて いるから、十分のオーバラップ(しきい値よりも小さい変位)を有することが保 証される。ステップ832で、現在の画像は新しい基準画像に相関づけられる。 ステップ834で、もし良好な相関が検出されれば、プロセスは前記のステップ 824に制御を移す。そうでなければ、ステップ836が実行される。ステップ 836は入力画像を処理するために新しい空間フィルタを定義する。ステップ8 38で、新しく処理された画像のピラミッド表現が構築される。ステップ840 で、このピラミッド表現は基準ピラミッドと相関づけられる。ステップ842で 、もし良好な相関が検出されれば、制御はステップ824に移る。そうでなけれ ば、画像整列の失敗が起こっており、プロセスはステップ844で終了する。 図8に示すように、連続的に整列させられる画像は、現在の画像と基準画像の 間の変位が過度になるまで単純にバッファされるが、それは画像間のオーバラッ プが最大値よりも小さいことを示す。最大値になると、現在の画像がMACデー タ構造に付け加えられ、新しいRIとして指定される。もし整列の失敗が検出さ れなければ、このプロセスは、すべての画像が整列させられ完全なMACが作成 されるまで、単純に進行する。完全なMACが構成された時点で、MACは、オ リジナルの入力シーケンスの最初及び最後の画像を含む入力画像のシーケンス、 及びMACの各画像を先行する画像に整列させる整列パラメータのシーケンスか ら構成される。更に、MACの画像は、各画像が、ほぼオーバラップしきい値に よって決定される量だけ、先行する画像とオーバラップしているという特性を有 する。図9は入力画像ストリーム714とMAC718の間の可能な関係を例示 する。 MACの作成中の或る点で、整列プロセスは整列パラメータの許容可能な集合 を戻すことに失敗するかも知れない。これは、画像捕捉プロセス(画像ノイズ、 ドロップアウト、グレア、高速又は不規則なカメラ動作)、画像内容(移動又は 遮断する物体)、画像処理(不適切な画像フィルタリング)、又は他の制御不可 能な環境ファクタから派生する多様な理由で生じるかも知れない。整列の失敗は 多様な基準によって検出することができ、それら基準の幾つかは選択された特定 の整列プロセスに独特のものである。本発明の実施形態において、整列の失敗は 、整列後の大きな残留誤差、異なった画像部分領域からの矛盾する推定、又は期 待された範囲の外にある推定整列パラメータに基づいてステップ822で検出さ れる。これらの条件の1つが生じるとき、整列チェーンの破断を避けるために、 整列プロセスそれ自体を変更するか、整列が試みられている画像(RI)を変更 することが必要である。 実施形態では、この適合化は2つのステップで起こる。第1に、図8のステッ プ830で示すように、最も近時の成功裏に整列させられた画像が、RIとして 指定されて、MACに付け加えられる。次に、現在の画像とこの新しい基準との 間で相関づけが試みられる。もしこの相関づけが成功すると、プロセスは前述し たように進行する。そのように作られた構造は、MACの要件を充足することを 保証されている。なぜなら、新しく指定されたRIは、前のRIに良好に整列さ せられ、良好な相関を生じるが指定された最大オーバラップしきい値よりも小さ いオーバラップを有するからである。もし新しいRIにの整列が失敗すると(ス テップ834)、プロセスは整列プロセスで使用される画像ピラミッドを発生す るために使用されたフィルタを変更しようと試みる。これらの新しい画像ピラミ ッド(1つはRI用、1つは現在の画像用)は、画像整列を計算するために使用 される。もしこの整列が成功すると、プロセスは前述したように継続する。もし 変更されたフィルタを用いる整列が失敗すると、前端プロセスは終了し、誤り条 件を戻す。 例示のプロセスによって実行されるフィルタ選択は画像内容に関する仮定に関 連している。ホワイトボード上の線を表すのに適したフィルタは、模様の付いた 壁紙又は室内の家具を表すには不適切かも知れない。従って、整列の失敗が検出 されたとき、それは画像内容の性質の変化によるものと仮定される。従って、異 なったタイプの画像内容に適したフィルタが、より効果的な画像表現、従ってよ り正確な画像整列を達成する努力の中で代入される。例示のプロセスはただ1つ のフィルタ選択ステップを示すが、決定ステップ842の「ノー」出力からステ ップ834へのブランチ・バックによって(図示されていない)、複数のフィル タ選択ステップが実行されてよいことが想定されている。 実施形態で使用されるフレーム間整列プロセスは、現在の画像と基準画像の間 の最小絶対差(MAD)を生じる画像変位を計算する。これは、シフトされた現 画像と基準画像の間の各画素における差を合計すること、及びこの差を最小にす るシフトを発見することを含む。これは、2乗差合計(SSD)最小法の行動を 近似する標準テクニックである。しかし、図10A及び図10Bに示すように、 1)局所的整列ミスが存在するときグローバルな画像整列を強靱に計算するため に、また2)整列の失敗をより良好に検出するために、実施形態の方法は、一組 の画像部分領域の各々について(図10A)、及び全体としての画像について( 図10B)、別個にMADを計算する。このプロセスは、整列プロセスの状態に 関する情報が、これら各種の推定の比較から引き出されることができるようにす る。更に、それは、偽の局所推定が他の推定と一致しないとき、それらを拒絶す ることができるようにする。 前端相関プロセスの実施形態を図11Aに示す。例示のプロセスはピラミッド に基づく「コーアス−ファイン」リファインメントを使用して正確な整列推定値 を効果的に計算する。このプロセスは、まず個々の部分領域推定の間の一致の分 析を使用して、整列パラメータの許容可能な初期推定が達成されたかどうかを決 定する。初期推定が許容できるかどうかを決定するために使用される基準は、推 定の間の一致の計算値を、グローバル最小絶対差によって表されるような残留画 像差の総量の計算値に組み合わせる。 図11Aにおいて、現画像及び基準画像のピラミッド表現がステップ1110 で得られる。ステップ1112で、可変ピラミッド・レベルが、ピラミッドの最 高レベルである最大レベルに設定される。基準画像及び現画像に対するグローバ ルMAD及び領域MADがステップ1114で計算される。ステップ1116で 、グローバルMAD、及び領域MADとグローバルMADの間の一致の数が計算 される。ステップ1118で、グローバルMAD及び一致の数(#A)が許容領 域 Rと比較され、推定が許容可能か否かが決定される。許容領域を図11Bに示す 。 もしグローバルMADが非常に低ければ(しきい値T低よりも小さい)、整列 が許容可能かどうかを判断するために、部分領域整列推定とグローバル整列推定 との間の最小数の一致が必要である。もしグローバルMADが中間範囲(T低と 第2のしきい値T高の間)にあれば、更に多数の一致が必要である。もしグロー バルMADが非常に大きければ(T高よりも大きい)、更に多数の一致が必要で ある。グローバル整列推定と部分領域整列推定の間の一致は、推定の間の差を、 第3のしきい値に対して比較することによって決定される。このしきい値は変位 の全体的大きさでスケールされ、許容誤差が相対的大きさ内でほぼ一定になるよ うにされる。 もし初期椎定が許容されれば、すなわち、もし一致の数及びグローバルMAD が基準を満足させるならば、この初期推定は「コーアス−ファイン」プロセスを 介してリファインメントされてよい。実施形態では、このプロセスは、より高い 各解像度ピラミッド・レベルで、より正確な整列推定を探索することを含む。こ の探索の最初のステップ(ステップ1120)は、可変ピラミッド・レベルを次 の低レベルに設定する。次のステップ(ステップ1122)で、グローバル及び 部分領域のMAD値が、前のレベルで計算された各値(グローバル及び部分領域 )を中心とした範囲で計算される。各部分領域及び全体としての画像について、 最良(すなわち、最低値)絶対差を生じる整列推定がステップ1124で選択さ れる。ステップ1126で、もしピラミッド中にもっと多くのレベルが存在すれ ば、制御がステップ1120に移され、このようにして計算された変位値の集合 が次のレベルで相関をリファインメントするために使用される。最後のピラミッ ド・レベルに達したとき、最良のグローバル推定が選択され、ステップ1128 で戻される。 「コーアス−ファイン」リファインメントのピラミッド表現を発生するために 使用されるフィルタについて、異なった選択を行うことができる。これらの選択 は、主として入力画像シーケンスで予測された内容のタイプに基づいてなされる 。選択の目的は、低解像度ピラミッド・レベルが正確な整列ができるようにする のに十分な画像構造を保存するピラミッド構造を発生することである。例えば、 も しピラミッド(ガウス又はラプラシアン)が、白い背景上の比較的に細い線(ホ ワイトボード上に書かれた画像の場合のように)から構成される入力画像を用い て通常の方法で発生されるならば、低解像度ピラミッド・レベルは非常に小さな 構造を示すであろう。なぜなら、線は低域パス・フィルタリングの後、非常に小 さなコントラストを有するからである。 この問題に対する1つの解法は、非線形の前置フィルタを入力画像に適用する ことである。例えば、もし入力画像がエッジ構造を抽出するためフィルタリング され、画素ベースでしきい値と比較され、次にピラミッド発生の前に画像構造を 展開するために距離変換を施されるならば、結果のピラミッドは低解像度レベル で使用可能な非常に多い内容を有するであろう。他方、この前処理ステップは、 通常強いエッジを含まない戸外のシーン構造には有効ではないかも知れない。変 動する環境で(又は画像シーケンスがシーン構造の1つのタイプから他のタイプ に動くとき)強靱に機能するためには、前置フィルタ・タイプの適応的選択がな される。実施形態では(図8に示すように)、もし新しい基準画像の選択の後で あっても整列が失敗すると、前置フィルタの変更がなされる。次に、この新しい ピラミッドを使用して、整列が試みられる。もしこれも失敗すると、プロセスは 誤り条件を戻して終了する。 一度、前端プロセスが成功裏にMACを計算すると、このデータ構造(メンバ ー画像及びリンキング整列パラメータ)は、最終整列のために後端整列プロセス に渡される。後端整列プロセスの目的は、MACに含まれる画像の各々を単一の モザイク座標系に正確に整列させる一組の整列パラメータを発生することである 。一般的に、後端における整列プロセスの根底にある座標変換は、前端で使用さ れる座標変換とは異なる。この差異は、3つのファクタから推進される。すなわ ち、1)前端プロセスに存在するリアルタイムの処理制約は緩和され、概してよ り複雑な計算ができるようにする。2)画像間の整列の初期椎定はMACの一部 分として与えられ、概してより複雑なモデルの安定計算ができるようにする。3 )座標変換はすべての画像を単一の座標系に正確にマップしなければならず、概 してフレーム間の整列に使用される変換モデルよりも複雑なものを必要とする。 各MACフレームから単一のモザイク座標系にのマッピングを作成するプロセ スは、1)モザイク座標系の選択、2)パラメータ又は疑似パラメータ画像変換 モデルの選択、3)この選択された変換を介してモザイク座標系に対する各フレ ームの関係を計算することを含む。実施形態では、プロセスは、MACを使用し て、モザイク座標系及び各フレームの座標系への初期マッピングの双方を確立す ることから始まる。次に、このマッピングは、各フレームについて順番に整列パ ラメータが推定される増分プロセスを介してリファインメントされる。代替のメ カニズムは、例えば、「モザイク処理及びレンズの歪み補正への応用を有するマ ルチビュー画像レジストレーション」(”Multi-View Image Registration With Application to Mosaicing and Lens Distortion Correction")と題する米国 特許仮出願第60/030,892号に説明されるように、すべてのフレームを 選択された座標系に同時に整列させることである。この仮出願は、画像レジスト レーションに関するその教示のために、本明細書に援用されている。この例にお ける増分又は順次的整列の選択は、大部分は、計算複雑性の低減及び対応する処 理時間の減少への必要性によって推進される。この順次的プロセスは、以下の説 明では「フレーム対モザイク」処理と呼ばれる。 後端プロセスを図15に示す。最初のステップ1510として、プロセスはM ACから初期作業モザイクを作成する。実施形態では、前端によってMACの一 部分として与えられる整列パラメータは、単に各フレームを前のフレームに関連 づける平行移動ベクトルである。初期作業モザイクを作成するために、画像フレ ームはこれらの平行移動ベクトルによってシフトされ、各フレームがモザイク座 標系に関して有する上左隅の位置が、シーケンス中のその点まで平行移動ベクト ルのすべてをベクトル合計することによって与えられるようにされる。言い換え れば、プロセスは、各フレームがMAC内の整列パラメータによって指定される 前のフレームとオーバラップするように、画像フレームを単純に「分配」する。 MAC内に指定されるもっと一般的な変換の場合、プロセスは、各フレームにつ いて初期のフレームからモザイクへの変換を発生するために、フレームからフレ ームへの変換を組み込んでもよい。 一度、この初期マッピングが確立されると、プロセスは、ステップ1512で 、順次のフレーム対モザイク整列プロセスの開始点として役立つ画像を選択する 。 この画像はモザイクの座標系を定義する。一般的に、この選択は、推定された位 置、画像内容、画像品質、及び/又はユーザ選択を含む多様な基準に基づいてな されることがてきる。実施形態では、プロセスは、初期作業モザイクによって定 義されるような画像位置の境界矩形の重心に最も近い中心を有するソース画像を 選択する。この画像は初期モザイクを形成する。この選択の理由は、最終整列に 続く画像のエッジにおいて変換画像フレームの歪みを最小にするためである。前 端整列プロセスによってMACの一部分として与えられている更に一般的な画像 対画像変換の場合、選択された開始画像を歪ませないで残すために、初期作業モ ザイク座標系を再計算することが望ましいかも知れない。 パラメータ又は疑似パラメータ画像対モザイク変換の選択は、入力画像の性質 及び作成されるモザイク画像の性質の双方に依存する。これは、1992年5月 の「コンピュータ・ビジョンに関するヨーロッパ・コンファレンス」(European Conference on Computer Vision)に発表されたジェイ・アール・バーゲン(J. R.Bergen)、ピー・アナダン(P.Anadan)、ケー・ジェー・ハンナ(K.J.Hanna )、及びアール・ヒンゴラニ(R.Hingoranl)による「階層的モデル・ベースの 動き推定」(Hierarchical Model-Based Motion Estimation)と題する論文に説 明されている。例えば、もし画像が平行移動ではなく主として回転移動を受けて いるカメラから収集されているならば、画像は投影変換を用いて整列させること ができる。しかし、もし視野角が180°に近づくと、すべての画像を単一のフ ラットな画像平面に置くように変換すると、モザイク画像の中心から遠くに存在 する入力画像の極端な歪みを生じる。現在の実施形態では、画像変換の選択は所 望の効果を生じるためにユーザによって明示的になされる。しかし、原理的には 、それは入力画像の分析及び画像を共通座標系に整列させるのに必要な変換のタ イプに基づいて自動的に行うことができよう。 フレーム対モザイク整列プロセスは、モザイク座標系にマップされた開始フレ ームを初期モザイクとして指定することによって、ステップ1512で始まる。 ステップ1514で、プロセスはモザイクに付け加えられる次のフレームを選択 する。実施形態では、フレームは開始フレームから前方及び後方に移動するよう に、MAC内で生じる順序で付け加えられる。従って、フレーム1からフレーム 20までの全フレームの中で、もし開始フレームがフレーム10であったならば、組 立の順序は10、11、12、13、...20、9、8、7、...、1とな る。代替的に、プロセスは、初期作業モザイク内のフレームの位置から引き出さ れた或る順序(例えば、開始フレームから増大する距離の順序)でフレームを組 み立ててもよい。 シーケンス中の各フレームについては、モザイク座標系への初期整列は、シー ケンス内の前のフレーム(すなわち、前にモザイクに整列させられたフレーム) との整列パラメータを計算することによって、ステップ1516で計算される。 整列パラメータのこの集合T増分を、増分変換と呼ぶ。ステップ1515で、こ の変換は前のフレームをモザイクに整列させるために使用された変換Ti-1と組 み立てられ、現フレームをモザイクに整列させる変換の推定T推定が発生される 。このプロセスを図13に示す。推定された変換T推定を使用して、プロセスは 、ステップ1518で、現フレームがモザイクとオーバラップする領域を定義す る。次に、この推定は、図13に示すように現モザイクのオーバラップ領域への 整列によって、ステップ1520でリファインメントされる。この最終整列が計 算された後、新しく整列させられたフレームは、新しい画像をモザイク座標系に ワープすることによって、また、図14に示すように、ワープされた画素で作業 モザイク画像を拡張することによって、ステップ1522で作業モザイクに付け 加えられる。ステップ1524で、もしマージされた画像がMAC中で処理され る最後の画像であったならば、プロセスはステップ1526で終了する。そうで ない場合、プロセスはモザイクにマージされる次の画像を選択するためにステッ プ1514に分岐する。 後端整列プロセスに含まれる整列計算は、原理的には任意の計算テクニックを 使用して実行することができる。本発明の実施形態では、後端整列プロセスは直 接推定法を使用し、多解像度「コーアス−ファイン」リファインメントプロセス でレーベンバーグ・マーカート(Levenberg-Marquardt)反復を使用して整列パ ラメータを推定する。この計算アプローチが選択される理由は、それが正確で強 靱な整列推定を与え、画像整列モデルの或る範囲にわたって適用できるからであ る。更に、それは計算的に高度に効率的である。なぜなら、それは明示的な探索 又は特徴抽出を必要としないからである。 計算の複雑性を低減するために、図12に示すように、ステップ1514のT増分 の計算は、ピラミッド・レベル2でのみ実行される。一般的には、この初期 整列計算は、図13の最終整列の開始点として働くのに適した推定の正確性を生 じるどのようなレベルにおいても実行することができる。最終整列ステップ15 20はピラミッド・レベル2及び1の双方で反復される。しかし、計算時間を縮 減するためにも、レベル1の反復は画像領域の部分集合上でのみ実行される。こ の部分集合は、「インタレスト・オペレータ」を基準画像に適用し、このオペレ ータの出力にしきい値を適用し、非最大抑止操作を実行することによって選択さ れる。このプロセスの結果は、反復プロセスで使用される値の累積を制御する画 素マスクである。 使用されるインタレスト・オペレータのタイプの根底にある原理は、画像グラ ディエントの大きい値を有する画像点は、推定された整列パラメータ値を決定す ることに最も強く寄与することである。これは、レーベンバーグ・マーカート、 ガウス・ニュートン、及び他の普通に使用されるテクニックを含む多くの推定手 順に真である。結果として、実施形態において、プロセスは、画像グラディエン トの大きさをピラミッド・レベル1で計算し、これにしきい値を適用し、次にし きい値よりも小さなすべての点を除去し、更に指定されたサイズの窓の中で最大 値を除いてすべての点を除去する。このプロセスの結果は比較的にまばらなマス ク(すなわち、画像点の小部分のみを通すマスク)であるが、整列パラメータの 推定に強く寄与する画像の領域を表すマスクである。 一般的には、この同じ目的を達成する他の選択方法を適用することができる。 例えば、固定数の点がマスク内に含まれるように(例えば、しきい値を適応的に 変更することによって)選択基準を定式化し、最終整列の計算コストが入力画像 サイズからほぼ独立するようにすることが考えられる。 例示したプロセスの最終ステップとして、図7のステップ722では、各種の 整列させられた画像が継ぎ目のないモザイク画像724を形成するためにマージ される。前述したテクニックの任意のものを使用して、整列させられた画像をマ ージし、単一のモザイク画像を形成してよい。結論 利用可能なソース画像の集合からオーバラップされた領域とモザイクに入れる ためのソース画像セグメントを自動的に選択する方法が定義される。基本的シス テムはソース画像の集合をモザイクに結合する方法を含み、この方法は(i)ソ ース画像を整列させるステップ、(ii)ソース画像を改善するステップ、(iii )ソース画像領域を選択するステップ、(iv)領域をマージするステップを含む 。他のタイプのシステムも想定される。これらは次のものを含む。 1)ビデオ・フレームが受け取られるにつれて、モザイクが連続的に作成され 、画像が作成されるにつれて、モザイクがビデオとして連続的に表示されてよい システム。 2)ソース・フレームのすべて(又は多く)の上で一度に作成を実行するシス テム。 3)ユーザがモザイクを調整及び編集することができるようにし、また各々の そのような編集の後又は要求に応じてモザイクを再生するシステム。ここで、編 集はソース画像のシフト、カット、張り付け、及び改善を含んでよい。 4)モザイクの第1の版を幾分低減された品質で(計算を縮減し速度を上げる ために)発生するシステム。一度、モザイクの最終成分画像がユーザによって選 択されると、合成画像がより高い品質で再生される。この場合、最初の発生は、 例えば、ワープの複数の適用、又は増分整列及びマージングを使用してよく、そ の一方で最終モザイクはソース・フレームから直接に作業しながらこれらの操作 を反復する。 5)モザイクが必要とされるときにのみ、そのモザイクを発生するシステム。 ここで、ユーザは所望の基準フレームを指定して、モザイクが発生される。この 場合、アルゴリズムは通常すべての整列を増分又はバッチ・プロセスとしてまず 計算し、次に要求に応じて所望の視野からモザイクを再生する。(これは余分の ワープを避けるために行われる。) ここで教示された動作の装置及び方法は、本発明の例示であることを理解すべき である。当業者は、本発明から逸脱することなく、容易に変更例を案出すること ができる。DETAILED DESCRIPTION OF THE INVENTION Method and apparatus for creating a mosaic image Background of the Invention This application is a provisional application No. 60 / 021,925 filed on Jul. 17, 1996. It is a non-provisional application based on The present invention relates to a method and an apparatus for creating a mosaic image from a plurality of source images. . Video and digital cameras provide relatively low resolution images and have a limited Cover your sight. Both low resolution and limited visibility issues can cause some images It can be overcome by combining into an extended double image mosaic. Mosaic aligns a set of images to compensate for camera movement, Merge them to create one image that covers a much wider field of view Thus, it can be created from a set of source images. Two of mosaic creation The main steps are to align the images and to make the aligned images large and seamless. This is to merge with the Zyke image. Currently, there are various image alignment methods and systems for mosaic creation. . Mosaic images have been created from satellite and space probe images for many years . In these cases, the appropriate parameter to align the images is the camera view direction Corresponding points in overlapping image areas, known from elaborate measurements of Determined by the trade. How to Use Careful Measurement of Camera Direction Is, for example, a SIGGRAPH by El Macmillan and G Bishop. 95 "Plenoptic Modeling: Image Based Rendering System" (PlenoptiAc Modeling: An Image-Based Rendering System ", L. McMillan and G. Bishop, SIGGRAPH 95). With this approach, the image is Taken from the camera, the movement of the camera is highly controlled and completely circular rotation around the optical center I do. The mosaic created is created by projecting the image onto a cylindrical image plane, So it would be related to mosaicing a complete circle on a single planar image Distortion is avoided. More generally, alignment also allows for accurate alignment of overlapping image patterns. Automatically find incoming image transformations (eg, translation, rotation, scaling) Achieved through image processing techniques. A method based on both image processing is described in “Mosaic Based Image Processing System” filed on January 14 Image Processing System), US patent application Ser. No. 08 / 339,491, And "Application using parallax-based technique" filed on June 22, 1995. Method and System for Image Combination Using " US Patent Application Ser. No. 08 / 493,632 entitled "A Parallaz-Based Technique". Is described in Each of these is incorporated herein. Currently, using these image processing methods to mosaic in real time from video There are systems that can be created. Such a system was introduced in 1996 "SPIE Volume 2736: Advanced Integrated Vision 1996" By P. Burt, M. Hansen and P. Anandan "Video Mosaic Displays", P. Burt, M. Hanse n, and P. Anandan, SPIE Volume 2736: Enhanced and Synthetic Vision 1996, pp 119-127, 1996), and the “ARBA Image Understanding Workshop” in November 1994. (ARPA Image Understanding Workshop) pages 457-465 Hansen, P. Anandan, K. Dana, G. van der Wa And P. Bert (M. Hansen, P. Anandan, K. Dana, G, van der Wal.and "Real-time scene stabilization and mosaic creation" by P. Burt (Real-time sc ene stabilization and mosaic construction). Various image processing methods are required to merge the source image into a seamless mosaic Currently exists. The simplest method is to use a zone where two images overlap One image to another image by calculating the weighted average of the two images Digitally feather in This method is useful if the source images overlap. If they are not exactly aligned over the entire area of the Are significantly different in properties such as average intensity, color, or contrast, Produces a visible, hazy seam. Merge images to avoid seams A more common method is to use an image pyramid to Is to merge at the same time. This method is described in the October 1983 "Graph Vol. 2, No. 4, pp. 217-236 (Bart) Published by "PJ Jay Burt and EH Adelson" A Multiresolution Spline W with Application to Zyke " ith Applications to Image Mosaaics ", PJ Burt and E.H. Adelson, ACM Tra nsactions of graphics, Vol.2, No.4, October 1983, pp. 217-236 (Burt I)) First described. In addition, to cover a certain part of the desired mosaic area, Page fills holes in the mosaic left by lack of source images It is also desired that Mosa using multi-resolution pyramid image processing framework A method of filling holes in a liquid is described in “ICBR”, 1988, pp. 300-302. Moment image, polynomial fit file by PJ Bart Problems with filter and surface interpolation ”(Moment Images, polynomial fit filters, and t he problem of surface interpolation, P.J. Burt, ICPR 1988, pp. 300-302) Described. In addition, the image merging method used in mosaic creation can be used to improve images. There is a case. For example, the “noise” in an image can be determined by simply averaging the source image. In the overlap zone. If one source image is Have a better quality than the source image or the object representation in the scene is If it is clearer, use the nonlinear method to select the “best” information from each source image. You can choose. For example, such a method is described in the 1993 "ICCV" PJ Bart and Earl Korchin on pages 242 to 246 "Enhanced image capture throu" by skiing gh fusion, P.J. Burt and R. Kolczynski, ICCV 1993, pp242-246) ing. Multiple source images should be used to improve image resolution in the overlap area. May be combined in a manner. Such a method is described in "Video Communication and Image Processing" in December 1993. Image Expressions, Vol. 4, pp. 324-335 "Motion Analysis for Image Improvement: Resolution, Occlusion, and Transparency "(" Motion Analysis for Image Enhancement: Resolution, Occlusion, and Transparency ", M. Irani and S. Peleg, Vision Communications and Image Representation Vol. 4, December 1993, pp. 324-335). These existing methods of creating a mosaic provide some of the advantages offered by the present invention. Lack of ability. That is, All source images to obtain the best overall alignment used in the mosaic Effective image processing means to align images simultaneously. Current methods simply align pairs of images It is something to make. For example, to create a mosaic from a series of video frames , Each image is aligned with the previous image in the sequence. Small alignment errors At times that are accumulated and are far apart in the sequence, overlapping image frames May result in poor alignment of the The effect of merging all source images to get the best overall mosaic Image processing means. Current method is to merge only two images at a time . A mosaic of many images merges into one new image at a time Created by: This method may not give the best overall quality, May involve unnecessary calculations. An effective image processing means for merging source images with dramatically different exposure characteristics. ・ The area of each source image to be put in the mosaic is automatically Effective image processing means for selective selection. Practical system implementation for commercial and consumer applications . Summary of the Invention The present invention comprises the steps of selecting a source image, aligning the source image, Selecting a segment of the source image, enhancing the image, How to create an image mosaic, including the step of merging images to form a zig Is the law. Further, the present invention provides means for selecting a source image, means for aligning a source image, Source image segment selection, image enhancement, image mosaic shaping An apparatus for creating an image mosaic that includes means for merging images in order to create an image mosaic. BRIEF DESCRIPTION OF THE FIGURES The teachings of the present invention will be considered in conjunction with the following detailed description in conjunction with the accompanying drawings. Therefore, it can be easily understood. In the drawing, FIG. 1 is a block diagram of the overall system, FIG. 2 is a flowchart showing the selection of a source image. FIG. 3A is a flowchart illustrating an exemplary image alignment method. FIG. 3B is a diagram of an image useful for explaining the alignment process shown in FIG. 3A. FIG. 4 is a diagram of an image showing area selection. FIG. 5 is a flowchart showing an image enhancement process. FIG. 6 is a diagram of a data structure showing a pyramid configuration for image merging. FIG. 7 is a block diagram useful for describing an embodiment of the present invention. FIG. 8 is a process flow suitable for use as the front end alignment process shown in FIG. It is a figure of a chart. FIG. 9 is processed by a system useful for describing the leading edge alignment process shown in FIG. FIG. 4 is a diagram showing an image to be displayed. 10A and 10B are useful for explaining the operation of the leading edge alignment process shown in FIG. It is a figure of an image. FIG. 11A is a process flow suitable for use as the correlation process shown in FIG. It is a figure of a chart. FIG. 11B is a graph of an allowable area for explaining the operation of the correlation process shown in FIG. 11A. is there. FIG. 12 is a diagram of both images useful for explaining the trailing edge alignment process shown in FIG. FIG. 13 shows a first alternative trailing edge alignment process suitable for use with the block diagram shown in FIG. FIG. 3 is a diagram of an image useful for explaining a source. FIG. 14 shows a second alternative trailing edge alignment program suitable for use in the block diagram shown in FIG. FIG. 3 is a diagram of an image useful for explaining a process. FIG. 15 shows a process flow suitable for use as the trailing edge alignment process shown in FIG. FIG. To make it easier to understand, it is best to use the same elements that The same reference numbers were used. Detailed description The present invention relates to an apparatus and a method for creating one mosaic image from a plurality of source images. Related. The present invention provides a high quality image with a wide field of view from a relatively low quality source image. Provide a practical way to get This capability is available for video cameras or digital cameras. Consumer and professional "photography" where cameras are used to provide photographic quality prints. "True photography" can have important uses. In addition, it is Can be used to improve quality. A schematic process for forming a mosaic image is shown in FIG. This is image source 1 01, including a series of processing steps 102 to 106, and a mosaic output unit 108 . In addition, human operators see the results of the processing steps and interact with the selected steps. There is an optional means 109 for controlling the operation.Source 101 of both images The mosaic creation process begins with a set of source images. These are the various image Sensors (eg, video cameras, digital still cameras, and image scanners) "Live" images, various storage media (for example, video tape (V CR), images coming from computer files), synthetically generated images (eg (Eg, computer graphics) and processed images (eg, Generated mosaic). The mosaic creation process involves five basic steps.Step 1: source image selection 102 A set of images to be combined into one mosaic is selected from the available source images You. This may be done manually or automatically. The selection process is the intention of the mosaic Find a set of good quality images that cover the region and content that was created. When the mosaic is constructed from a series of video frames, this selection step It may include indicating the first and last frames included in the mosaic. this The selection indicates that all intermediate frames should be used. Start frame The frame and stop frames start or stop the systematic sweep operation of the camera, then The video camera itself, such as when motion is automatically detected by the system It may be selected via body control. When a mosaic is built from a collection of snapshots, It may be desirable to interactively select a source image. In addition, selecting a source includes cropping a sub-image from a larger image. Good. For example, a user cuts a photo of a person in one source image and modifies it. You may merge it with a new location in another image of Zaik.Step 2: Image Alignment 103 The selected source images are each aligned with the corresponding part of the adjacent image. Preferably, they are aligned with each other. Alignment involves geometric transformation or "warping" Accompanied by discovery. After the warping has been applied to all of the selected images, These images are arranged in a common coordinate system. A geometric transformation is usually a set of parameters Is defined for These can be shifts, rotations, dilations, projections, higher-order polynomials, or General flow (eg piecewise polynomial with a different set of parameters at each sample point) Expression). Warping Technique was filed on April 18, 1996 Computationally Efficient Digital Image Warping " US Provisional Patent Application No. 60 / 015,57 entitled cient Digital Image Warping). No. 7. This application is incorporated herein by reference. The alignment can be done interactively via the user interface 109, It lets the user indicate the corresponding points and then aligns these points (or To find the transformation parameters (which most closely match according to the minimum error criterion Interactively specify conversion parameters (eg, mouse or other pointing (Using a device). Furthermore, the alignment determines the warp parameter that gives the best match between adjacent images It can be performed automatically by various image processing methods. Alignment is a manual operation Steps and automatic steps may be combined. For example, the operator manually adjusts the image Line, and then invoke an automated process to create a word line for accurate alignment. May be refined. The alignment process may interact with the source image selection process 102. The alignment is Information about the degree of overlap, and in the case of video, the speed of camera movement. Provide information about the degree. Discard images if image overlap is too large Abandonment Or if the degree of overlap is too small, add a new image. You may get. If the camera movement is too large, the image may be discarded, so May result in motion blur. The sudden change in camera movement is mosai To signal the intended start and stop of the video sequence used to create the May be used for The present invention provides an image alignment method that considers all frames simultaneously. Two paintings A conventional method of aligning two images by minimizing some error function between the images Rather than the alignment approach, the approach disclosed here involves image overlap By minimizing the error function, which is the sum of all the errors between Provide a way to align all images at once or a subset of images Plan.Step 3: Select area 104 Sub-regions of the source image that overlap and align are put into the mosaic Selected for. The selection process effectively partitions the mosaic into sub-regions , So that each partial region represents a part of the mosaic taken from each source image. The selection may be made manually or automatically. Manual selection is like a mouse A border on the display of adjacent overlapping images using a simple pointing device. Draw a line to make it interactive through the user interface 109. May be. Automatic selection can be based on location (eg, distance to the center of each source image) or Appropriate between adjacent images based on quality (eg, resolution or motion blur) Discover the perfect cut line. In a more general selection approach, some overlaps are averaged or patterned. May be linked by a site selective fusion.Step 4. Image enhancement 105 Individual images should either improve their contrast or sharpness, or To adjust them to match the corresponding properties of their neighboring images. It may be further processed before zing. Improvements are based on intensity, color, and filter manipulation. Good. The parameters for these operations may be determined manually or automatically.Step5. Merging 106 In this step, the selected source images are combined into a single mosaic. This It looks like a single image without seams or other merge processing artifacts. It is desirable to do so in a way that produces Model from selected area of each source Simply copying pixels on the Zyke does not generally produce satisfactory results. Conte Between adjacent segments that have substantially different characteristics such as last, resolution, or color Boundaries appear as visible seams in the mosaic. Methods for combining images include feathering, multi-resolution merging, averaging, and fusion. Including If the alignment is good and the neighboring images have the same characteristics, feathering It is satisfactory. Multi-resolution merging can be used to image multiple resolution levels In the image / wavelet image conversion domain. This is visible in a wide range of conditions Effective for removing seams. Averaging the source image in the overlap area Means to improve the signal-to-noise ratio when are of equal quality and precisely aligned And appropriate. Image fusion is a method where the selection is made at each location, scale, and orientation. This is a generalization of the multi-resolution merging method performed between source images. It often happens when the source image does not cover the entire area of the desired mosaic. Mosa There are holes in the iku that are not covered by any source image, Areas around the merged source image that do not extend to the desired mosaic boundary May exist. These areas may be left blank (eg, black Assigned a unified color like), they are filled in a way that is inconspicuous May be. The latter effect can be achieved by multi-resolution interpolation and extrapolation, or Same as image "patch" or adjacent image area taken from one piece near the image Multi-resolution merging using artificially generated patches And may be generated by: In some cases, objects from one image are in front of a background given by another image It may be desirable to combine the source images in such a way as to appear in this The effect is to focus the first image along the intended foreground object boundary (eg, a human face). Achieved by cutting carefully and then inserting the resulting pixels into other images . Edges have aliasing (jagged appearance due to image sampling) Images may be mixed to avoid shading from one source in another. of They may be combined in more complex ways to make them fall on background objects. The boundary is Mixing is automatic, although it may be specified manually or automatically.Step 6. Mosaic formatting 107 Once the mosaic is completed, it is necessary to achieve the desired image format It may be further edited or processed. For example, it is warped to a new coordinate system, It may be cropped or enhanced via image processing techniques. These steps May be performed automatically or manually via the user interface 109. No.Output means 108 The final mosaic composite image is given or printed on the display Or stored in a computer file. In addition, mosaic is a new mosaic It may be used as a source image 101 for use in creating an image.User interface 109 A human operator can access any of these processing steps via the user interface. Or all may be observed and controlled. Typically, this interface is Display device and a pointing device such as a mouse or light pen . Operators can view source images, image areas, and Operations on these images may be specified. In addition, the operator may have access to a slider bar or other real Alternatively, the operating parameters may be controlled via a virtual “knob”. Operators were different Specify the corresponding point on the image or use the virtual knob to display the image on the screen Manually assist in image alignment by pushing, stretching, or rotating May do it. Standard user interface methods (eg, keyboard and pointing) Device), the present invention provides a unique user interface for video input. System by allowing the user to move the video camera in a predetermined motion. To be able to interface with system functions. Each such predetermined Camera operation is interpreted to control certain aspects of the mosaicing process. Note that the order of the mosaic creation steps may be interchanged in some cases. And some steps may be omitted. For example, improvement steps After the segment selection step, or before the alignment step, or before the image selection step Or may not be performed at all.Image selection The source image selection step 102 includes additional steps such as the steps shown in FIG. May be included. The source image contains several items, including content, quality, and degree of overlap. The selection may be based on several factors. Generally, the source image selection professional The process is iterative, so some images initially selected may be discarded later, Images that were not initially selected may be added later.Selection based on content 201 Normally, selection based on image content is performed manually. This is from a larger image May include the step of cutting the small pieces, which are inserted into the new image May be. Usually, such selections and cuts are made using a pointing Executed on a computer display using the device.Quality based selection 202 The selection based on image quality may be made manually or automatically. From the video signal When there are a large number of source images, such as when creating a mosaic, automatic selection is common. Commonly used. This selection process can be, for example, motion blur or poor Images that have deteriorated due to poor exposure may be avoided. If the source image is a video sequence, one motion blur is It may be detected by first measuring the image movement between frames. Blurred The degree increases in proportion to the frame movement, and as a fraction of the time between frames, It increases in proportion to the exposure time for each frame. Moving between frames aligns images It may be provided by the process 103. In addition, the exposure time is shared with the source video. May be known as part of the information provided to the user. The product of the exposure time and the movement The image is significantly degraded by blur when representing large distances compared to pixels in You. An alternative method of detecting motion blur in a video sequence is When an image appears sharp in the other direction but blurs in one direction, It is to measure the degree of blur. A simple filter applied to the image Pattern orientation may be measured at each pixel location in the Data or oriented edge detector). The extended area of the image or the entire image If the resulting orientation when pooled is abnormally dense in one direction , Which may be taken to indicate motion blur. The orientation is the By comparing stirling with clustering of adjacent overlapping images Therefore, it may be determined that the objects are abnormally dense. The method of determining exposure quality is based on a set of spectral frequencies within a set of source images. Energy may be measured. A set of images of a given scene obtained with different exposures For images, assume that the image with the highest energy is the image with the best exposure May be taken away. The energy within a set of spectral bands is Calculated by calculating the various level fluctuations of the Ann Pyramid representation No. Several bands of energy overlapped in one image If the image is low compared to that of the May be rejected.Selection based on overlap 203 Source image frames provide a reasonable degree of overlap between adjacent images It is desirable to be selected as follows. This selection process is partly an application And the computational resources available to the mosaic creation system. In general, If the overlap is large, it is good to achieve good quality alignment and merging It just gets easier. On the other hand, if the overlap is large, a model that covers a given area To create a Zyke, so many source images are needed, and Resource costs increase. The degree of overlap depends on the alignment process 103. Is given to the selection system.Image alignment Image alignment step compensates for factors such as camera movement and lens distortion It is desirable to do. Camera movement leads to a simple projection transformation between overlapping images Or produce more complex disparity transformations related to the 3D distribution of objects in the scene Can be At present, there are alignment methods corresponding to these factors. here In order to align the set of images distributed in two dimensions on the mosaic image area, Defines how each image can be aligned vertically and horizontally with respect to adjacent images I do. Existing methods of aligning pairs of images when applied to two images Geometric transformation that maximizes the calculated image match or alignment over the overlap region of the image Gives a means to discover. Various calculated values including cross correlation and least squared error Can be used. A new way to align three or more source images simultaneously is to use Produces the best global match for all source images when applied Generalize the procedure used for image pairs by finding geometric transformations . The best global match is the match measure for pairs of overlapping source images. Defined as an appropriate combination of arithmetic values. In general, the best global alignment The task of finding is computationally difficult. New method finds best global alignment Introduce practical measures. FIG. 3a shows a three-step process for finding a global alignment.Step 1: Sub-mosaic creation 301 First, the source images are assembled into one or more submosaics in a sequential process. It is. This process involves one or more source images used as seeds. Begin by selecting an image. Next, add other source images one at a time By doing so, a mosaic is grown from each seed. Each new image It is aligned in pairs with the existing mosaic and then incorporated into the mosaic. Substitute Typically, it is aligned with one of the images already in the mosaic, and its alignment Parameters and the alignment of the overlapping images are mathematically combined to The parameters for aligning the pattern are obtained. The sub-mosaic aligns each new video frame with the previous frame. By queuing, it is usually created from a video sequence. New submo Zyke may be initiated whenever there is a significant change in the direction of camera movement. This processing step does not give the best overall alignment of the source images, Approximate alignment of subsets of images based on the subset of possible alignments of both images Just give.Step 2: Sub-mosaic approximate alignment 302 The sub-mosaics are coarsely aligned with each other. In practical systems, this step This can be done manually or from a camera orientation sensor such as a gyroscope. It may be based on coarse camera orientation parameters to be determined. Furthermore, alignment is sub- Have a basis for the alignment of pairs of mosaics or are adjacent using known image processing alignment methods The basis may be on the pair of frames selected in the sub-mosaic. Adjacent sub mosai It is often not possible to exactly align the clips. Submosa in step 1 Alignment of pairs of Iku results in accumulation of small alignment errors on the expanded submosaic. It is possible to As a result, each sub-mosaic is May cause some distortion.Step 3: Iterative refinement 303 Once a coarse global alignment of all source images has been generated, the alignment is repeated Refinement through the reconciliation process. Adjustments are hierarchical, for example, multiple solutions It may be implemented within a pyramid image processing framework. Use this method First, an adjustment is calculated for the low resolution representation of the sub-mosaic. This is the whole Improve large-scale alignment of strategic mosaics. Next, the sub-mosaic is the smaller sub-mosa Decomposed and adjusted at a higher image resolution for these sub-mosaics Is repeated. This improves the overall mosaic alignment on a medium scale. Small submo Zaik is again broken down into smaller sub-mosaics, and The columns are adjusted. These segmentation and alignment steps are performed to achieve the desired accuracy and image resolution. (Possibly at the level of the individual source images). The adjusted alignment of the individual frames, and the small sub-mosaics, are described in Fine-Co -Fine (coarse) procedure (from step 2) May be used to recreate a sub-mosaic. "Fine-Coarse" And the "coarse-fine" pass is repeated until the desired overall alignment is obtained. May be. Inventor confirms that a single pass is sufficient for most applications did.How to adjust alignment The method of adjusting the alignment in step 3 is based on a given source image (or sub-mosaic). Global) with all of the adjacent overlapping images (or sub-mosaics) Consider alignment. For all pairs of overlapping adjacent images (sub-mosaics) One matching calculated value that combines the calculated values is calculated. Then this merged match A geometric transformation parameter that optimizes the calculated value is found. Global alignment is one Sometimes performed on one image (sub-mosaic) or image (sub-mosaic) At the same time. Each of these techniques is described below. This is described as methods 1 and 2 below. In both cases, the adjustment is an overall mosaic Is systematically circulated for all images (sub-mosaics) that form. These steps may be more clearly defined as follows. That is, Sequence {I of N source images (or sub-mosaics)k} Is given (O <k <N-1), all the images from all overlapping image pairs One global alignment error is calculated by adding the alignment errors. "Sorting A sequence is a set of transformations {Tk変 換, and each transformation TkIs image IkThe mosaic of common Define to warp to the coordinate framework. If WkIs converted TkBy wa Image Ik, The overlap is the aligned image Wmas well as WnIs calculated between every pair of. The pair of such images is NTwoThere are individuals. Oh If the overlap exists, the alignment error EmnCan be calculated. For example, Emn Is the sum of the squares of the differences in image intensity in the overlap region, cross-correlation, or image It can be any other calculated value of the quality of the alignment. The image has overlap If not, EmnIs zero. Therefore, the global alignment error E is EmnNTwoPieces The sum over all pairs of images. There is no overlap between image pairs Standard methods are used to avoid confusion. At least some of these methods Only alignments with a certain overlap area or a certain number of overlap pairs. Including consideration. The calculated value of each image pair match is calculated in the overlap area It may be normalized by dividing the value. The mosaic coordinate system does not matter in the present invention. It is one coordinate system of the input image However, other coordinate systems calculated by other methods may be manually selected by the user. The selected coordinate system may be used. As used in this application, global alignment minimizes global alignment error E. Set of transformations intok}. This set of transformations gives the global alignment error E It can be found using a minimizing method that minimizes. For example, consider the global image alignment proposed in FIG. Error function for this alignment Is calculated from all pairs of images that share the overlap region. For example, shade The shaded area 321 is the area between the frames 311 and 312. This is a wrap area. Region 322 is the overlap between frames 313 and 314 It is. The example method has been defined using all image pairs, but increases the speed of computation. Or related image pairs can be determined in advance by some other process. If so, a smaller subset of the image pair may be used. For example, Alternative method of calculating the error function for all image pairs sharing the overlap region Is to use only adjacent image pairs. Define adjacencies between image pairs One possible way is by F. Orenhammer in 1991, "(Oren Hummer) Calculation Survey, Vol. 23, pp. 345-405 "Voronoi diagram" (see "Voronoi diagram") Diagrams, a Survey of Fundamental Geometric Data Structures ", F.Aurenhamm er, (Aurenhammer) Computing Surveys, Vol 23, 1991, pp 345-405). And Using the center of each frame as the core of the Voronoi cell, Frames with shared Voronoi cells are defined as "adjacent". For all overlapping areas or for only the adjacent image pairs And simultaneously minimizing alignment errors would be computationally expensive. Inventor calculates Several simple implementations that reduce the complexity of have been defined.Method 1 − Analytical optimization with “Coarse-Fine” refinement First, a match calculation is calculated between pairs of overlapping frames. Coincidence meter The result is a small range of parameter values centered on the location of the current predicted best match. Expressed as the opposite surface. These surfaces store their alignment calculations. Can be explicitly described as Can also be. Thus, an estimate of the overall best alignment is based on the pair of overlapping frames. Can be determined analytically based on the set of matching surfaces. Source image The determined best match position is warped and the matching surface is calculated again. The whole alignment The process may be repeated several times to improve continuously. These steps are , The first alignment is based on a low-resolution representation of each source, and the last refinement is Further implementation in a “coarse-fine” style to be based on a high resolution representation of the source May be. The reason that the iteration in this method is desirable is that the pairwise coincidence calculation surface Global alignment uses more complex transformations, while It is because it is estimated. For example, the coincidence calculation surface is calculated only for translation However, the global alignment of the image with respect to multiple neighboring images Will include conversion.Method 2 -Local alignment refinement When the set of source images is roughly aligned, the alignment parameters for each image will overlap. May be adjusted to optimize the match to adjacent images. This is for each source image Iteratively, and then several times. In addition, the process is "coast May be implemented as a "fine" refinement. The execution is serial and one image Is adjusted at each iteration, or multiple overlapping source images are It may be aligned simultaneously with each adjacent image.Select area Each point in the final mosaic may be covered by several input images. these One of the input images is selected to define the pixel value at that point in the mosaic desirable. SRkTo the image (converted) W contained in the mosaickIs a partial area of You. Several methods may be used to select the SR.Method 1: Proximity The simplest way to select the SR is by approaching the center of the image. Mo Zike pixel p has some images WkShall be covered by The proximity criterion is , For the value of image p, its image W with the center closest to pkTaken from To choose. This grid pattern is known as a “Voronoi grid” and the resulting S R is a convex region. In this case, the boundary between two adjacent images connects the centers of the two images. It is a bisector of the following line segment. Voronoi Go board is based on the above-mentioned theory by Orenhammer Sentence Is described in For example, if the input images have only horizontal translation, each input image Only upright rectangular strips around the center contribute to the final mosaic. FIG. 4 shows an example of region selection. Frames 401, 402, 403, and 404 are This is the display after sorting. In the created mosaic 410, the area 411 is a frame 401, region 412 is taken from frame 402, and region 413 is framed. Area 414 is taken from frame 404 and area 415 is taken from frame 403 Taken from frame 402, region 416 is taken from frame 403.Method 2: Image quality The SR may be selected based on the quality of the image. Assigned to pixel p of the mosaic The values obtained are taken from the source image determined to have the best image quality in that respect. It is. Image quality ratings such as contrast or motion blur It may be based on criteria. As an example, the size of the gradient may be used. This That is, the sharper the image, the higher it will be. Such selection criteria were in 1994 "Method and Device for Fusing Images" granted on June 28 (Method for Fusing) No. 5,325,449 entitled Images and Apparatus Therefor) Described. This patent describes the tracking of image gradient calculations. The book has been incorporated. Use all overlapping images covering a specific area Then, the image with the highest quality is selected to represent the region.Method 3: Align The degree of alignment is often not uniform in the area of overlap between the two images . The cut lines that define the boundaries of the SRs in these images are central to points where alignment is particularly good. It is desirable to place it so that it passes through the overlap area along. This is the final Minimize misalignment along mosaic seams where misalignment is most noticeable in the mosaic . To find this center of the point, at each pixel in the overlap area, a residual misalignment -The vector is estimated. Next, the overlapping area is divided into A cut line that minimizes the total is found. Better alignment near the center of the image When the alignment deteriorates as it goes to the periphery of the image, a Voronoi-type grid The array is an approximation to this criterion.Image improvements Individual images may be used to improve their contrast or sharpness or To adjust these characteristics to be equal to the corresponding characteristics of the adjacent image, It may be further processed before logging. Improvements are based on intensity, color, and filtering. This The parameters of these operations may be determined manually or automatically.Merging In effect, simply copy the pixel values from each SR of the source image to the mosaic It may not be desirable to assemble the source image into a mosaic Not. This produces a visible seam. Therefore, blend adjacent image regions together It is desirable to do. A particularly effective mixing method is to first combine the source image with two or more bands. Decompose into a set of spatial frequency components, and then separate the image of each band separately into the Merge on the transition zone proportional to the average wavelength. A known embodiment of this method is Laplacian pyramid to decompose the image into their bandpass components Use image transformation. About using Laplacian Pyramid for merging images See Bart I, supra. This publication uses Laplacian Pic How to create Lamid, how to create images from Laplacian Pyramid It also explains how to create it. Briefly, two Laplacian pyramids are created, but both pyramids are Mid is based on an image having the size of the final mosaic M. One pyramid M Is for the final mosaic image M and the other pyramids L are for the current image Things. Each source image IkFirst, TkAligned with the mosaic by Image WkIs converted (warped) to Next, the warped image has the specified value Fill in the pixels or use a more general extrapolation method described later to Expanded to cover the area. Next, Laplacian pyramid L is Wk Is calculated. The value from pyramid L is WkSegment SR coming fromkof Based on the location, it is copied to the appropriate location in pyramid M. This is for each image After that, the pyramid corresponding to the area covered by the input frame Every element in the de M has an assigned value. Next, the final mosaic M Is created from Laplacian Pyramid M, giving a seamless mosaic You. In one embodiment of the present invention, the multi-resolution merging process comprises: It is performed based on the gray scale converted version of the image, not the image itself. Dew To merge images with significantly different light characteristics, the images must first be transformed by a logarithmic transformation. It is converted on a pixel basis by inverse compression scalar conversion. Multi-resolution merging Performed on a scalar-converted source image and then obtained through merging By inverting the scalar transform for the image, the final mosaic is obtained. An example where this procedure is useful is to merge images with different gains. Is the case that occurs normally. Such images can be displayed on video with automatic gain control. Still turtle taken by camera or applying different gains to each image May be taken by la. The gain conversion can be approximated by multiplying the image intensity. Wear. For smooth gain conversion, apply logarithmic transformation to the image before merging. By use, better mixing is obtained. The converted images are merged , The exponent (or antilog) of the mixed transformed image gives the final result. For color images, the above transformation is applied only to the intensity component, depending on the image environment. Or may be applied separately to each color signal component.Area selection in the pyramid An embodiment of the multi-resolution merging process is given to Bart I. This fruit The embodiment implements a wrapper to decompose each source image into a regular set of bandpass components. Use the cyan pyramid. When two images are merged, A weighting function for one (eg, W1) Is Gauss Pyramid of the mask image Can be defined by creating a code. The mask image is in the area SR1 Inside is defined as 1 and outside this region is defined as 0. Gauss such Pyramid is W1Each corresponding sample of each of the Laplacian pyramids Gives the weight multiplied by This weighting follows the proportional mixing rule. If 2 Only one source image W1And WTwoExists and the region SR1And SRTwoIs the mosaic area Multi-resolution merging follows a simple procedure if it represents the complement. That is, ( 1) W1And WTwoA Laplacian Pyramid for (2) Area SR1And SRTwoBuild a Gaussian pyramid for the masks inside. (3) Multiply Laplacian and Gaussian components on a sample basis for each source You. (4) Add the resulting product pyramids. (5) rotate the desired merged image To do this, an inverse Laplacian pyramid transformation is performed. In the present disclosure, two of the methods defined by Bart and Adelson are described. We introduce refinement of this.1. Weighted addition with normalization If more than two images are used, each segment SRkBut a hole or o If the mosaic image area is accurately covered without wrapping, The procedure can be generalized to merging any number of images. For partial area All weights given by the Gaussian pyramid are exactly It is summed to one. But if SRkMust accurately cover the mosaic image area Then, the sum of the weights at each sample position may be 1. In this case, the image May be combined as in steps 1 to 4 above. Here, two new Steps are introduced. That is, (4b) Gaussian pyramid is sample Each value in the combined Laplacian pyramid summed by Divide by the corresponding value in the combined Gaussian pyramid. This is Lapra This has the effect of normalizing the cyan value. The final mosaic is reversed, as in step 5. Recovered via conversion.2. Simplified choice To create a combined Laplacian, the weighting function for proportional mixing is simply A simplified method that is implicit may be used. In this procedure, each source image The Laplacian pyramid for is created as before. (Step 1). Gaussian pyramids are not created. (There are no steps 2 and 3.) Segment SRkSource images W falling in the area ofkLaplacian pyramid By copying all samples from all levels of the Thus, a Laplacian for mosaic is created. (Step 4). Mosaic before Is obtained via the inverse transformation in the same way as. (Step 5). This simplified way Is the source image segment SRkAccurately cover the mosaic area Can be used when not needed. The inverse Laplacian-pyramid transformation is Selected to provide the proportional mixture used by the resolution merging method This has the effect of blurring the bandpass component that has been applied. Lap created with odd width generation kernel The spatial position (i, j) at the level 1 of the Rasian Pyramid is in Cartesian coordinates x = i21And y = j21It is noted that If these coordinates arek SR for samples in Laplacian PyramidkIf you fall into The sample value is copied to the Laplacian for mosaic. This simplified method is shown in FIG. To make the presentation clearer, As shown in FIG. 6, generalization of the image to a two-dimensional case is simple. Three lines Image W1, WTwo, And WThreeIs given, the final mosaic is Image W1, Pixels WTwo, And pixels 11 to 16ThreeCreate from Is done. M0The value of (x) is assigned as follows. That is, pixel X = 0. . . 4 For, they are images W1Also for x = 0. . . Generated as 4 Laplacian Pyramid L0Taken from the same level of (x). Pixel x = 5. . . For 10, they are images WTwoFor x = 5. . . Generated as 10 Labrachian Pyramid L0Taken from (x). Pixel x = 11. . . 1 For 6, they are images WThreeFor x = 11. . . Generated as 16 Laplacian Pyramid L0Taken from (x). M for the rest of the pyramidiThe value of (x) is the position 2 in the mosaic image M from the corresponding i-th level in the Laplacian pyramid of the image contributing to ix Taken. Therefore, M1For (x), x = 0. . . The value of 2 is the image W1Lapu Taken from the Lasian Pyramid, x = 3. . . The value of 5 is the image WTwoLaplacia Taken from the Pyramid, x = 6. . . The value of 8 is the image WThreeLaplacian Pi Taken from Ramid. In this example, the top level is a single image, as in most practical cases. Laplacian pyramids are not created until they are only prime. In such cases , The top level of the pyramid is taken from the same level of the Gaussian pyramid in the image. Can be Therefore, GThreeIs the value taken from the Gaussian pyramid of the corresponding image Structure Is done.Image boundary processing Each source image W is on the same coordinate system and sample grid as the final mosaic Is defined by However, they are generally smaller than mosaics. Laplacian Pyramid is each image WkCovers extended image area when created for The image, at least implicitly, until it reaches the entire area of the final mosaic. It is convenient to insert them. This extension is desirable because the pics that contribute to the final mosaic All samples from the lamid (ie, those with non-zero weights of Method 1; Is the SR of method 2kThat fall in the area of the image) have a well-defined value. To prove. This extrapolation can be performed on the original image or when the pyramid is created. Can be. If performed in the original image area, the segment SRk It is desired that extrapolation ensures that points in are not within the distance d of the boundary of the image. New Here, d-D2MWhere M is the Laplacian used for merging. Pyramid top level, D is the filter used to create the pyramid A small integer related to the size of the kernel (eg, D is an even number of Equal to half the linear filter kernel size of a symmetric filter with a loop). A simple method of image area extrapolation is to duplicate the value of an edge pixel. mosaic Another method that may be used to create is to copy corresponding pixels from other source images. Is Rukoto. If these other images have WkNoticeably different from If they arekThe density may be converted so as to have the same characteristics as. Extrapolation is 300-302 pages of 1988 "ICBR" by PJ Bart "Moment Images, Polynomial Adaptive Filters, and Surface Interpolation Issues" ("Moment Images, Polynomial Fit Filters, and The Problem of Surface Int erpolation, "P.J. Burt, ICPR 1988, pp. 300-302). May be done during pyramid construction.Color image There are several approaches to processing color images. Color image is optional As a 3D image with accepted color standards (RGB, YUV, Lab, etc.) Can be represented. Image alignment can be performed with only one component (eg, component of intensity Y). In that case, normal monochrome alignment techniques can be used. Alternatively, The alignment may minimize an error function that includes more than one component. Merging of an image is performed on a single component such as a component of intensity Y, for example. Where the other two component signals are taken directly from the merged image. It is. Alternatively, merging of the image may be performed on each component (eg, the R, G, B components, or L , A, b components) separately, and each component is processed as a monochrome image. Good. For monochrome mosaics, splices blur the seams between images Allows a human observer to identify that it is composed of sub-images Can not do. If splicing has taken place, the basic lightness balance Often, it is not even necessary. The fusion of partial images occurs only when The force is sensitive to differences in brightness at high spatial frequencies (eg, seams), but low This is because it is not sensitive to spatial frequencies (eg, across partial images). On the other hand, chrominance differences are more effectively perceived at low spatial frequencies. Therefore, the joint Even when the eyes are blurred between two partial images in the mosaic, the partial images are not aligned. Color-correct all of the sub-images after they have been spliced together If care is not taken, color imbalance between the images can be discerned. Here, based on a comparison between the colors in the overlap region between the images, A method for achieving color correction between partial images in a single image will be described. Two overlaps For an image to be processed, the method brings the second image closest to the first image To determine the color space affine transformation (between the R, G, B component signals) Performing a least-squares fit over the wrap region. Next, A transform is applied to the entire second image. Overlap three or more objective functions Extending an image to an image simply involves applying the affine transformation to all but one of the images. Imputed (these transformations relate to the untransformed or reference image), RGB squared for all pixels in all overlap regions This is done by adding a color difference. The physical process of image formation provides a strong motivation for affine color correction. Pretty common In a natural environment, affine transformations in color space can be achieved by (a) different acquisition systems Color space differences between two images due to different acquisition times, (b) illumination due to different acquisition times Difference in bright spectrum, (c) cloudy or other half in one image not appearing in other images Transmission medium, to compensate. This is the 1980 "MITRLE" No. 122, Pages 214-221 (a paper by M.H.Brill, published in MIT RLE Progres s Report No.122 (1980), 214-221) by MH. It is stated in the sentence. The execution of the algorithm in context is outlined below. 1. Applying the above image matching algorithm only to the luminance image, , And apply a luma image derived transformation to all three component color signals. 2. Reference image G1For each non-reference image GkBest between and reference image To determine the color space affine transformation of The least squares adjustment of time is performed. The objective function covers all overlapping regions (eg, partial (A) over all pixels in image i and k)kGk(X) + bk-AiGi (X) -bi)TwoIs the sum of Where Gk(X) at pixel position x of image k (R, G, B) column vectori(X) is at pixel position x of image i (R, G, B) column vector. AkAnd AiIs a 3x3 matrix, biAnd bkIs the column 3 vector. For reference image 1, A1= I and b1= 0 It is. Solving the affine parameters including the matrix A and the vector b , Solving 12N-12 simultaneous linear equations at the same number of unknowns. here Where N is the number of partial images in the mosaic. 3. Separately into the R, G, and B color signal components using the above algorithm Perform an image spline. 4. Verify that the image mosaic is within the feasible digital value range. It replaces each component in the image with a constant chosen to remove all negative pixel values. This is done by adding to the signals (ie, R, G, and B). Then the image Each component by a constant sufficient to reduce the maximum value to the maximum obtainable digital value above Scale. If the image is incompletely aligned with respect to the size of the represented object, Replace individual pixel values in the objective function of step 2 above with local pixel averages be able to. If the alignment is poor at the pixel level, the image overlap area is still If identifiable, color signal and component correlation within each overlap region Modify step 2 to optimize the affine transformation to match the matrices May be. The secondary conversion characteristic of the correlation matrix is described in “J. Opt. Soc. Am. A” in 1994. , 11 "by G. Healy and Dee Slater in 3003-3010 Published papers (a paper by G, Healey and D. Slater, published in J. Opt. c. Am. A, 11 (1994), 3003-3010) describes color recognition. new The objective function is for all overlapping regions (eg, for partial images i and k). (AkCkAk T-AiCiAi T)TwoAnd (Akmk+ Bk-Aimi-Bi2) weighting This is the sum of the sums of the totals. Note: AkIn order to completely specify Adding a similar term comparing the third moment, which is transformed as a tensor desirable. Where mkAnd CkIs the average of the three vector signals and the imageiAnd k 3x3 correlation matrix between signals for pixels in the wrapped area, where miAnd C i is defined similarly (still within the overlap of i, k). Minimum of result 2 The power problem is led to a non-linear set of equations in the affine parameters. If these If the amount of computation needed to solve this equation is too large, The complete 3x3 matrix being transformed can be replaced with a diagonal matrix. That In this case, the least squares equation is linear with the square of the matrix element and can be easily solved. it can. In the special case of two overlapping images, each color component of image G2 is , An image having a mean and variance that, by transformation, match the mean and variance of image G1 G2 '. G2 '= aG2 + b here, a = sigma 1 / sigma 2 b = average 1- (sigma 1 / sigma 2) average 2 Mean 1 and sigma 1 are the color signal components of interest for image G1 (reference image). Mean and standard deviation of the pixel values in the image G2 (inspection). Inspection image). In each application example, further elaborate color adjustment Before you try, you should check if this step provides enough color correction. is there. The basis for this alternative method of processing color images is to intersect between the partial images in the mosaic. The use of overlapping image areas to effect fin color correction. Affine color correction has been discussed for some time in the areas of color reproduction and machine vision, Did not achieve great results. Because to find the correct affine transformation, Usually, very restrictive spectral assumptions or the basis of a correctly segmented region in an image This is because a definition of a quasi-color was required. Overlap between inspection and reference images The existence of these eliminates these problems and therefore allows the affine correction to be calculated directly. And be able to. This approach is based on a series of image overlaps. It can be transitively extended to all other images connected to the sub-image.Interactive observation of alignment After alignment, the images are (optionally) provided to the user. The mosaic presentation is This is done in the same way as the presentation of FIG. 3B, where all images are transformed to a common coordinate system. The observation is given that the position of each image in the mosaic is the same as the original image It is done as follows. One such possible interaction is a cursor or other pointer. This is done by moving the moving device across the mosaic. Curso Video frames contributing to the area in the mosaic that contains the video Displayed, while contributing regions and image boundaries are displayed on the mosaic . This dialog allows the operator to check the quality of the images and their alignment. To do. For example, the operator may have a poor quality (eg, blur noise) noise. Delete a frame while all the images in the mosaic have at least one input You may check that it is covered by the image. One of the effects of the above dialogue is to give the user a new way to watch the video. And Control the direction and speed at which the pointing device moves over the mosaic By doing so, the user can now control the display of the video. In particular , The user can control the forward / backward video display and control its speed so Wear. Additional user interaction may be desired to correct poor alignment . Automatic alignment can be used, for example, when images overlap May fail when the image has a small amount of noise, or when the image has few discriminating characteristics. I don't know. In such a case, the user may, for example, use the mouse to drive the frame. By clicking or clicking on common features that appear in unaligned images. The images may be manually aligned. The system does not change the frame alignment from this process. Permutations can be calculated. Such a conversion is an initial guess for further automatic alignment. Can work as expected, and now automatic alignment is more May give good results.Device control based on video motion analysis A customary method of activating a data processing device or computer program is " Press the "On" button or its equivalent, then press the "Off" button or its equivalent That is. However, in some cases, the operation of the device depends on the information it is processing. Therefore, it is controlled. One example is a "voice active" answering machine, which Turn off recording of incoming messages when no voice signal is detected on the telephone line. The present invention can only be seen when the camera is moving or the moving object is visible Only for controlling devices and computer programs with related operations , Using a video motion analysis module. Video Motion Analysis is based on the book Digital Video Processing by M. Tecalp (Dig It is well known as described in ital Video Processing). Camera movement or The image objects are analyzed and specific motion patterns are extracted from the device by a computer program. Interpreted as a command to the program. One application of motion control is in a second frame or image sequence of a video signal. Is to make a panoramic image from (video brush). The control of this device is as follows Can be done. In other words, the mosaic of the image is the two It only happens during the period. In this example, after image mosaicing has been activated, The process waits for the camera to come to rest (movement between frames is less than a given threshold). Mosaic processing is started when the camera movement exceeds a certain threshold. , Stop the mosaic processing when the camera stops again. Beginning of the mosaic process And the direction of the camera motion in addition to the camera motion controlling the end May be used to control the internal details of the mosaicking process itself.Illustrative embodiment An exemplary embodiment of the present invention will be described with reference to FIGS. Implementation of this example The form is a portable low resolution digital image source (eg, video camera 710 and And digitizer 712 or digital video camera), and Software running on a personal computer (not shown) Capture high-resolution digital image stream 714 in real time It is a system to capture. This process occurs quickly as images are received. Highly efficient “front edge” image alignment that processes the image and produces an initial mosaic image 718 Process 716, a highly accurate “tail” image alignment process 720, Combining with merging process 722 to give no mosaic image 724 Achieved by In order for the entire system to perform its functions, the front-end alignment process requires It is desirable to have the ability to perform continuous inter-frame image alignment during operation . The end result of this process is a list of overlapping source image frames. An initial mosaic data structure 718 consisting of Have motion parameters that associate the frame with other adjacent frames in the sequence. I do. If any one of these sets of motion parameters is absent or incorrect, Assembling a mosaic can be difficult. Because the image sequence The relationship between one part of the image sequence and the rest of the image sequence may not be defined Because there is no. Therefore, to provide reliable system functions, The alignment process 716 includes: 1) works in real time; It is desirable to return a correct alignment result with a high probability for this purpose. The purpose of the exemplary leading edge alignment process 716 is to associate the entire input image stream. Generate the minimum alignment chain (MAC) that defines the initial mosaic Is Rukoto. This MAC converts a series of input images and each image to the previous in the chain. Consisting of alignment parameters for sequentially aligning only the images. It is an alignment professional In the sense that it contains as few input images as possible for the process to proceed. It is. The reason that this minimum property is desirable is that it has a trailing edge alignment process 720 and This is because the amount of processing and storage required in the mixing process 722 is reduced. An embodiment of this front end alignment process is shown in FIG. It involves two principles of operation . That is, adaptive image sampling and adaptive filter selection. Other implementations States may be based on these or similar principles. Because the MAC logically includes the first and last images of the input image stream, Seth uses the first captured image as the first component of the MAC and the initial reference image (RI). Start by specifying. RI is: 1) Estimated output between arrival image and RI If the overlap is less than a certain threshold (eg, 50% of the image size) Or 2) sequentially align each of the arriving images until an alignment failure is detected. Used for The amount of selected image overlap is based on the number of images in the MAC. Hope to be small and enough for the trailing edge alignment process to refine the alignment Balance the desire to provide a good overlap. The alignment is shown in Figs. Use any efficient image-based alignment technique as described earlier in Can be performed using For efficiency and robustness, multi-resolution image correlation techniques You may use a nick. In FIG. 8, the image is converted from the digitized image stream 714 to step 810. Received at. The process generates a pyramid description of the image at step 812. , Step 814 designates this pyramid as a reference pyramid. next, At step 816, the process retrieves the next frame from stream 714. At step 818, the process generates a pyramid description for this image. S At step 820, the process bases the newly generated pyramid description on the current image. Correlate to the pyramid description of the quasi-image. In step 822, if detected between images, If the obtained correlation is good, control is passed to step 824. Step 824 Determine whether the displacement (Δx) between the two images is less than a threshold. Also If it is small, the overlap between the current image and the reference image is larger than desired. Thus, the frame is buffered in step 826 and control is passed to step 8 Returning to 16, the new image from stream 714 is tested. Steps 8 At 24, if the displacement is greater than the threshold, step 828 is performed. Step 828 appends the frame to the MAC and the newly added frame pic Designate the lamid as the reference pyramid. However, in step 822, if there is no good correlation between the current image and the reference image If not, step 830 is performed. Step 830 is closest The buffered image is sometimes designated as the reference image. This image is buffered Have sufficient overlap (displacement less than the threshold). Proven. At step 832, the current image is correlated with the new reference image. At step 834, if a good correlation is detected, the process proceeds to the previous step. The control is transferred to 824. Otherwise, step 836 is performed. Steps 836 defines a new spatial filter to process the input image. Step 8 At 38, a pyramid representation of the newly processed image is constructed. Step 840 Where the pyramid representation is correlated with the reference pyramid. In step 842 If a good correlation is detected, control passes to step 824. Otherwise If an image alignment failure has occurred, the process ends at step 844. As shown in FIG. 8, the continuously aligned images are the current image and the reference image. The buffer between the images is simply buffered until the displacement between them becomes excessive. Indicates that the loop is less than the maximum. When the maximum value is reached, the current image is Data structure and specified as the new RI. If alignment failure is detected If not, this process will align all images and create a complete MAC It simply proceeds until it is. Once the complete MAC is configured, the MAC A sequence of input images, including the first and last images of the original input sequence, And a sequence of alignment parameters to align each image of MAC and MAC with the preceding image It is composed of Furthermore, the MAC images are such that each image is approximately at the overlap threshold. Therefore, it has the characteristic that it overlaps the preceding image by the determined amount. I do. FIG. 9 illustrates a possible relationship between the input image stream 714 and the MAC 718. I do. At some point during the creation of the MAC, the alignment process will return an acceptable set of alignment parameters. May fail to return. This is because the image capture process (image noise, Dropout, glare, fast or irregular camera movement, image content (moving or Object to occlude), image processing (inadequate image filtering), or other uncontrollable It may arise for a variety of reasons derived from effective environmental factors. Alignment failure It can be detected by a variety of criteria, some of which are selected specific Unique to the alignment process. In an embodiment of the invention, the alignment failure is Large residual errors after alignment, inconsistent estimates from different image subregions, or periods Based on the estimated alignment parameters that are outside the waiting range, It is. When one of these conditions occurs, to avoid breaking the alignment chain, Modify the alignment process itself, or change the image (RI) being aligned It is necessary to. In an embodiment, this adaptation occurs in two steps. First, the steps in FIG. As shown in step 830, the most recently successfully aligned image is the RI Specified and added to the MAC. Next, the current image and this new reference A correlation is attempted between them. If this correlation is successful, the process proceeds as described above. Proceed as if. The structure so created makes sure that it meets the requirements of the MAC. Guaranteed. Because the newly specified RI is well aligned with the previous RI To produce good correlation but less than the specified maximum overlap threshold This is because they have a large overlap. If the alignment to the new RI fails ( Step 834), process generates image pyramid used in alignment process Attempt to change the filter used to Pirami these new images (One for RI, one for current image) used to calculate image alignment Is done. If this alignment is successful, the process continues as described above. if If the alignment using the modified filter fails, the front end process terminates and an error Reverse the case. The filter selections performed by the illustrated process involve assumptions about the image content. Are linked. A good filter for representing lines on a whiteboard is a patterned filter May be inappropriate for representing wallpaper or furniture in a room. Therefore, alignment failure is detected When done, it is assumed to be due to a change in the nature of the image content. Therefore, Filters that are appropriate for different types of image content will result in a more effective image representation and thus better Substitution is made in an effort to achieve more accurate image alignment. Only one example process The filter selection step of FIG. Multiple backfills (not shown) by branching back to It is assumed that the data selection step may be performed. The inter-frame alignment process used in the embodiment is the process between the current image and the reference image. Calculate the image displacement that results in the minimum absolute difference (MAD) of This is the shifted current Sum the differences at each pixel between the image and the reference image and minimize this difference Including finding shifts that occur. This is the behavior of the sum of squared differences (SSD) minimum method. This is a standard technique for approximation. However, as shown in FIGS. 10A and 10B, 1) To calculate global image alignment robustly when local misalignment exists And 2) to better detect misalignment, the method of the embodiment (FIG. 10A) and for the image as a whole (FIG. 10A). 10B), calculate the MAD separately. This process is a state of the alignment process Relevant information can be derived from a comparison of these various estimates. You. In addition, it rejects false local estimates when they do not match the other estimates To be able to An embodiment of the front end correlation process is shown in FIG. 11A. Example process is pyramid Accurate alignment estimates using "coarse-fine" refinements based on Is calculated effectively. The process first involves finding a match between the individual subregion estimates. Analysis to determine if an acceptable initial estimate of the alignment parameters has been achieved. Set. The criteria used to determine whether an initial guess is acceptable are The calculated value of the match between the residuals is calculated as the residual fraction as represented by the global minimum absolute difference. Combined with the calculated value of the total amount of disparity. In FIG. 11A, the pyramid representation of the current image and the reference image is Is obtained. At step 1112, the variable pyramid level is It is set to the maximum level, which is the high level. Global for reference image and current image The MAD and area MAD are calculated in step 1114. At step 1116 , Global MAD and the number of matches between the area MAD and the global MAD are calculated Is done. In step 1118, the global MAD and the number of matches (#A) are Area R to determine if the estimate is acceptable. The allowable area is shown in FIG. 11B . If the global MAD is very low (threshold TLowLess than), aligned Subregion alignment estimation and global alignment estimation to determine if A minimum number of matches between are required. If the global MAD is in the middle range (TLowWhen Second threshold THigh), More matches are needed. If glow If the val MAD is very large (THighLarger), more matches are needed is there. The match between the global alignment estimate and the subregion alignment estimate is the difference between the estimates, It is determined by comparing against a third threshold. This threshold is the displacement Scaled by the overall size of I'm sorry. If the initial determination is acceptable, ie, the number of matches and the global MAD If this satisfies the criteria, this initial estimate can May be refined via In embodiments, this process is higher At each resolution pyramid level involves searching for a more accurate alignment estimate. This The first step in the search for (step 1120) is to follow the variable pyramid level To a low level. In the next step (step 1122), the global and The MAD value of the partial area is calculated for each value (global and partial area) calculated at the previous level. ) Is calculated in the range around. For each partial area and image as a whole, The alignment estimate that yields the best (ie, lowest) absolute difference is selected in step 1124. It is. At step 1126, if there are more levels in the pyramid If so, control is transferred to step 1120 and the set of displacement values calculated in this way is Is used to refine the correlation at the next level. The last pyramid When the threshold level is reached, the best global estimate is selected, step 1128 Will be returned. To generate a pyramid representation of "course-fine" refinement Different choices can be made for the filters used. These choices Is mainly based on the type of content predicted in the input image sequence . The purpose of the selection is to ensure that the low-resolution pyramid levels are precisely aligned Is to generate a pyramid structure that preserves enough image structure. For example, Also The pyramid (Gaussian or Laplacian) is a relatively thin line (e Using an input image composed of (like an image written on a white board) Low-resolution pyramid levels are very small if generated in the usual way. Will show the structure. Because the lines are very small after low-pass filtering. This is because it has a small contrast. One solution to this problem applies a non-linear pre-filter to the input image That is. For example, if the input image is filtered to extract edge structures Is compared to a threshold on a pixel-by-pixel basis, and then the image structure is If a distance transform is applied to expand, the resulting pyramid will be at a lower resolution level Will have a great deal of content available at On the other hand, this pre-processing step It may not be useful for outdoor scene structures that do not normally contain strong edges. Strange In a moving environment (or where the image sequence is from one type of scene structure to another) In order to work robustly, an adaptive choice of pre-filter type is needed. Is done. In an embodiment (as shown in FIG. 8), after selecting a new reference image, If the alignment fails, the prefilter is changed. Then this new An alignment is attempted using the pyramid. If this also fails, the process Return error condition and exit. Once the front end process successfully computes the MAC, this data structure (member -Image and linking alignment parameters), the trailing alignment process for final alignment Passed to. The purpose of the trailing edge alignment process is to convert each of the images contained in the MAC to a single Is to generate a set of alignment parameters that align exactly to the mosaic coordinate system . In general, the coordinate transformation that underlies the alignment process at the trailing edge is used at the leading edge. It is different from the coordinate transformation. This difference is driven by three factors. Sand 1) Real-time processing constraints existing in the front end process are relaxed, and To perform complex calculations. 2) Initial determination of alignment between images is part of MAC Given as a minute, generally allows for stable calculations of more complex models. 3 ) Coordinate transformations must map all images exactly to a single coordinate system, And more complex than the transformation model used for alignment between frames. Process to create a mapping from each MAC frame to a single mosaic coordinate system 2) Parameter or pseudo-parameter image conversion Model selection, 3) each frame to the mosaic coordinate system through this selected transformation. Computing the relationship of the roles. In an embodiment, the process uses a MAC. To establish both the mosaic coordinate system and the initial mapping of each frame to the coordinate system. Start with things. This mapping is then performed in order for each frame in order. The parameters are refined via an estimated incremental process. Alternative method Cannism, for example, can be described as "Mascing with applications to mosaicing and lens distortion correction. Multi-View Image Registration With Application to Mosaicing and Lens Distortion Correction ") As described in Provisional Patent Application No. 60 / 030,892, all frames To simultaneously align with the selected coordinate system. This provisional application is For its teachings on rations, it is incorporated herein. In this example The choice of incremental or sequential alignment for the most part depends on the reduction of computational complexity and the corresponding processing. Driven by the need to reduce processing time. This sequential process is described below. In the light, it is called "frame-to-mosaic" processing. The trailing end process is shown in FIG. As a first step 1510, the process proceeds to M Create an initial work mosaic from the AC. In an embodiment, the leading edge is one of the MACs. The alignment parameters given as parts simply relate each frame to the previous frame Is the translation vector to be added. To create an initial working mosaic, Frames are shifted by these translation vectors so that each frame is The position of the upper left corner with respect to the reference frame is the translation vector to that point in the sequence Of all files is given by the vector sum. Paraphrase If so, the process is as follows: each frame is specified by an alignment parameter in the MAC Simply "distribute" the image frames so that they overlap the previous frame. For the more general translation specified in the MAC, the process is Frame to mosaic conversion to generate the initial frame-to-mosaic conversion. May be incorporated. Once this initial mapping is established, the process proceeds to step 1512 , Select an image to serve as a starting point for the sequential frame-to-mosaic alignment process . This image defines the coordinate system of the mosaic. In general, this choice is Location, image content, image quality, and / or user selection. It will be done. In an embodiment, the process is defined by an initial work mosaic. Source image with the center closest to the center of gravity of the bounding rectangle of the image location as defined select. This image forms the initial mosaic. The reason for this choice is that This is to minimize the distortion of the transformed image frame at the edge of the subsequent image. Previous More general images given as part of the MAC by an edge alignment process In the case of image-to-image conversion, the initial work mode is used to keep the selected start image without distortion. It may be desirable to recalculate the Zykh coordinate system. The choice of parameter or pseudo-parameter image to mosaic transformation depends on the nature of the input image. And the nature of the mosaic image created. This is May 1992 "European Conference on Computer Vision" (European J.R.Bergen (J. R. Bergen), P. Anadan, K.J.Hanna ), And "Hierarchical Model-Based" by R. Hingoranl In a paper entitled "Hierarchical Model-Based Motion Estimation". Has been stated. For example, if an image is primarily subject to rotational rather than parallel If acquired from a camera, align the images using a projection transformation Can be. However, if the viewing angle approaches 180 °, all images are When converted to be placed on a rat image plane, it exists far from the center of the mosaic image This causes extreme distortion of the input image. In the current embodiment, the choice of image transformation is Explicitly done by the user to produce the desired effect. However, in principle , It is a tool for analyzing the input image and the transformations needed to align the image to a common coordinate system. Could be done automatically based on IP. The frame-to-mosaic alignment process uses a starting frame mapped to the mosaic coordinate system. The method begins at step 1512 by designating the theme as the initial mosaic. At step 1514, the process selects the next frame to be added to the mosaic I do. In an embodiment, the frames move forward and backward from the starting frame. To the order in which they occur in the MAC. Therefore, from frame 1 to frame If the starting frame was frame 10 of all frames up to 20, the group The order of standing is 10, 11, 12, 13,. . . 20, 9, 8, 7,. . . And one You. Alternatively, the process is derived from the position of the frame in the initial working mosaic Frames in a certain order (eg, increasing distance from the starting frame) You may stand up. For each frame in the sequence, the initial alignment to the mosaic coordinate system is The previous frame in the can (ie, the frame previously aligned to the mosaic) Is calculated in step 1516 by calculating the alignment parameter with This set of alignment parameters TincrementalIs called an incremental conversion. In step 1515, Is the transform T used to align the previous frame into the mosaici-1And pair Estimated T of the transform that is simulated and aligns the current frame with the mosaicEstimationIs generated . This process is shown in FIG. Estimated transformation TEstimationUsing the process , Step 1518, define the area where the current frame overlaps the mosaic You. Next, this estimation is performed on the overlapping area of the current mosaic as shown in FIG. The alignment refines in step 1520. This final alignment is After being calculated, the newly aligned frame will put the new image in the mosaic coordinate system. By warping and working on warped pixels as shown in FIG. By extending the mosaic image, the work mosaic is attached in step 1522 Added. At step 1524, if the merged image is processed in the MAC If so, the process ends at step 1526. So If not, the process steps to select the next image to be merged into the mosaic. Branch to step 1514. The alignment calculation included in the trailing edge alignment process basically uses any calculation technique. Can be performed using In embodiments of the present invention, the trailing edge alignment process is straightforward. Multi-resolution "Coarse-Fine" refinement process using tangent estimation Use Levenberg-Marquardt iterations to align Estimate parameters. The reason for choosing this calculation approach is that it is accurate and strong. Because it provides a robust alignment estimate and can be applied over a range of image alignment models. You. Furthermore, it is computationally highly efficient. Because it is an explicit search Or, no feature extraction is required. To reduce computational complexity, as shown in FIG.incremental Is performed only at pyramid level 2. Generally, this early The alignment calculation yields estimation accuracy suitable to serve as a starting point for the final alignment in FIG. It can be performed at any level. Final alignment step 15 20 is repeated at both pyramid levels 2 and 1. However, the calculation time is reduced. To reduce, level 1 iterations are performed only on a subset of the image regions. This A subset of the “interest operator” applied to the reference image Selected by applying a threshold to the data output and performing a non-maximum suppression operation. It is. The result of this process is a screen that controls the accumulation of values used in the iterative process. It is an elementary mask. The principle underlying the type of interest operator used is Image points with large values of the detent determine the estimated alignment parameter values. Is the strongest contribution to This is Levenberg Marquardt, Many estimators, including Gauss-Newton and other commonly used techniques The order is true. As a result, in an embodiment, the process is an image gradient Calculate the size of the plot at pyramid level 1, apply a threshold to this, and then Removes all points smaller than the threshold, and Remove all points except values. The result of this process is relatively sparse mass (Ie, a mask that passes only a small portion of the image points), but the alignment parameter This is a mask representing an area of the image that strongly contributes to the estimation. In general, other selection methods that achieve this same purpose can be applied. For example, so that a fixed number of points are included in the mask (eg, Formulate the selection criteria (by changing it) and reduce the computational cost of the final alignment to the input image It can be considered to be almost independent of the size. As a final step of the illustrated process, step 722 of FIG. The aligned images are merged to form a seamless mosaic image 724 Is done. Use any of the techniques described above to map the aligned images. To form a single mosaic image.Conclusion Populate overlapping areas and mosaics from the set of available source images A method is defined for automatically selecting a source image segment for the image. Basic cis The system includes a method for combining a set of source images into a mosaic, the method comprising: Aligning the source image, (ii) improving the source image, (iii) A) selecting a source image area; and (iv) merging the areas. . Other types of systems are also envisioned. These include: 1) As the video frames are received, the mosaic is created continuously. The mosaic may be displayed continuously as a video as the image is created system. 2) A system that performs creation on all (or many) of the source frames at once. Tem. 3) Allow the user to adjust and edit the mosaic, and A system that plays the mosaic after such editing or on demand. Where The collection may include shifting, cutting, pasting, and improving the source image. 4) Make the first version of the mosaic with somewhat reduced quality (reduce computation and speed up Because) the system that occurs. Once the mosaic final component image is selected by the user When selected, the composite image is played with higher quality. In this case, the first occurrence is For example, multiple applications of warp, or incremental alignment and merging may be used, The final mosaic, on the other hand, performs these operations while working directly from the source frame. Is repeated. 5) A system that generates a mosaic only when it is needed. Here, the user designates a desired reference frame and a mosaic is generated. this In some cases, the algorithm usually first treats all alignments as incremental or batch processes. Calculate and then reconstruct the mosaic from the desired field of view on demand. (This is extra This is done to avoid warping. ) It should be understood that the devices and methods of operation taught herein are exemplary of the present invention. It is. Persons skilled in the art can easily devise modifications without departing from the present invention. Can be.
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),CA,JP,KR,M X (72)発明者 ディクソン,ダグラス,エフ. アメリカ合衆国 ニュー ジャージー州 ホープウェル センター ストリート 13 (72)発明者 バート,ピーター,ジェフリー アメリカ合衆国 ニュー ジャージー州 プリストン ウィートシーフ レーン 80 (72)発明者 バーゲン,ジェイムス,ラッセル アメリカ合衆国 ニュー ジャージー州 ホープウェル イースト プロスペクト ストリート 57 (72)発明者 ゲンデル,ゲイリー,エー. アメリカ合衆国 ニュー ジャージー州 ネシャニック ステイション ドッグウッ ド ドライヴ 17 (72)発明者 クマール,ラケシュ アメリカ合衆国 ニュー ジャージー州 モンマス ジャンクション リッジ ロー ド 966 (72)発明者 ソーニー,ハープレト,シン アメリカ合衆国 ニュー ジャージー州 プレインズボロ アスペン ドライヴ 1808 (72)発明者 ブリル,マイケル,ヘンリー アメリカ合衆国 ペンシルヴェニア州 モ リスヴィル メイクフィールド ロード 1 ナンバーディー130────────────────────────────────────────────────── ─── Continuation of front page (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FI, FR, GB, GR, IE, IT, L U, MC, NL, PT, SE), CA, JP, KR, M X (72) Inventors Dixon, Douglas, F. United States New Jersey Hopewell Center Street 13 (72) Inventors Bart, Peter, Jeffrey United States New Jersey Priston Wheat Thief Lane 80 (72) Inventors Bargain, James, Russell United States New Jersey Hopewell East Prospect Street 57 (72) Inventor Gender, Gary, A. United States New Jersey Neshanik Station Dogwood De Drive 17 (72) Inventor Kumar, Rakesh United States New Jersey Monmouth Junction Ridge Row De 966 (72) Inventor Thorny, Harpret, Shin United States New Jersey Plainsboro Aspen Drive 1808 (72) Inventors Brill, Michael, Henry United States of America Pennsylvania Mo Lisville Makefield Road 1 Number Dee 130
Claims (1)
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US2192596P | 1996-07-17 | 1996-07-17 | |
| US60/021,925 | 1996-07-17 | ||
| US08/896,887 US6075905A (en) | 1996-07-17 | 1997-07-16 | Method and apparatus for mosaic image construction |
| PCT/US1997/012862 WO1998002844A1 (en) | 1996-07-17 | 1997-07-17 | Method and apparatus for mosaic image construction |
| US08/896,887 | 1997-07-18 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002514359A true JP2002514359A (en) | 2002-05-14 |
Family
ID=26695255
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP50633998A Ceased JP2002514359A (en) | 1996-07-17 | 1997-07-17 | Method and apparatus for creating a mosaic image |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US6075905A (en) |
| EP (1) | EP0979487B1 (en) |
| JP (1) | JP2002514359A (en) |
| KR (1) | KR20000023784A (en) |
| CA (1) | CA2261128A1 (en) |
| DE (1) | DE69735488T2 (en) |
| ES (1) | ES2258795T3 (en) |
| WO (1) | WO1998002844A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003316348A (en) * | 2002-04-25 | 2003-11-07 | Sony Corp | Image processing apparatus, image processing method, and image processing program |
| JP2008077666A (en) * | 2006-09-22 | 2008-04-03 | Samsung Electronics Co Ltd | Image processing apparatus and method |
| JP2008117235A (en) * | 2006-11-06 | 2008-05-22 | Sony Corp | Image processing apparatus, camera apparatus, image processing method, and program |
| JP2011129137A (en) * | 2004-03-31 | 2011-06-30 | Fuji Xerox Co Ltd | Method for generating highly condensed visual summary of image region |
| JP2011525009A (en) * | 2008-05-30 | 2011-09-08 | ジーイー・ヘルスケア・バイオサイエンス・コーポレイション | System and method for detecting and removing one or more defocused images or low contrast to noise ratio images |
| US8643788B2 (en) | 2002-04-25 | 2014-02-04 | Sony Corporation | Image processing apparatus, image processing method, and image processing program |
| US10198617B2 (en) | 2016-05-13 | 2019-02-05 | Olympus Corporation | Image-acquisition apparatus |
Families Citing this family (550)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA2255599C (en) | 1996-04-25 | 2006-09-05 | Bioarray Solutions, Llc | Light-controlled electrokinetic assembly of particles near surfaces |
| CN1221488A (en) | 1996-05-10 | 1999-06-30 | 应用科学模拟公司 | Luminance-priority color sensor |
| US6442301B1 (en) | 1997-01-06 | 2002-08-27 | Applied Science Fiction, Inc. | Apparatus and method for defect channel nulling |
| US6380539B1 (en) | 1997-01-30 | 2002-04-30 | Applied Science Fiction, Inc. | Four color trilinear CCD scanning |
| US5973734A (en) | 1997-07-09 | 1999-10-26 | Flashpoint Technology, Inc. | Method and apparatus for correcting aspect ratio in a camera graphical user interface |
| US6128108A (en) | 1997-09-03 | 2000-10-03 | Mgi Software Corporation | Method and system for compositing images |
| US7738015B2 (en) | 1997-10-09 | 2010-06-15 | Fotonation Vision Limited | Red-eye filter method and apparatus |
| US7630006B2 (en) | 1997-10-09 | 2009-12-08 | Fotonation Ireland Limited | Detecting red eye filter and apparatus using meta-data |
| WO1999024936A1 (en) * | 1997-11-10 | 1999-05-20 | Gentech Corporation | System and method for generating super-resolution-enhanced mosaic images |
| US6657667B1 (en) * | 1997-11-25 | 2003-12-02 | Flashpoint Technology, Inc. | Method and apparatus for capturing a multidimensional array of overlapping images for composite image generation |
| US6268611B1 (en) * | 1997-12-18 | 2001-07-31 | Cellavision Ab | Feature-free registration of dissimilar images using a robust similarity metric |
| US6720997B1 (en) * | 1997-12-26 | 2004-04-13 | Minolta Co., Ltd. | Image generating apparatus |
| AU2563199A (en) | 1998-02-04 | 1999-08-23 | Applied Science Fiction, Inc. | Multilinear array sensor with an infrared line |
| JPH11296666A (en) * | 1998-02-16 | 1999-10-29 | Sony Corp | Image connection method, image connection device, and recording medium storing image connection processing program |
| EP1062636A1 (en) | 1998-03-13 | 2000-12-27 | Applied Science Fiction, Inc. | Image defect correction method |
| JP3059956B2 (en) * | 1998-03-19 | 2000-07-04 | コナミ株式会社 | IMAGE CREATING DEVICE, IMAGE CREATING METHOD, AND READABLE RECORDING MEDIUM CONTAINING IMAGE CREATING PROGRAM |
| US6522325B1 (en) * | 1998-04-02 | 2003-02-18 | Kewazinga Corp. | Navigable telepresence method and system utilizing an array of cameras |
| US6504569B1 (en) * | 1998-04-22 | 2003-01-07 | Grass Valley (U.S.), Inc. | 2-D extended image generation from 3-D data extracted from a video sequence |
| US6584235B1 (en) * | 1998-04-23 | 2003-06-24 | Micron Technology, Inc. | Wide dynamic range fusion using memory look-up |
| BR9910306B1 (en) * | 1998-05-08 | 2012-01-24 | process for producing a reference image for pattern identification tasks. | |
| CN1222911C (en) * | 1998-05-19 | 2005-10-12 | 索尼电脑娱乐公司 | Image processing apparatus and method, and providing medium |
| US6535650B1 (en) * | 1998-07-21 | 2003-03-18 | Intel Corporation | Creating high resolution images |
| US6633685B1 (en) * | 1998-08-05 | 2003-10-14 | Canon Kabushiki Kaisha | Method, apparatus, and storage media for image processing |
| US6469710B1 (en) * | 1998-09-25 | 2002-10-22 | Microsoft Corporation | Inverse texture mapping using weighted pyramid blending |
| US6434265B1 (en) | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
| US6870564B1 (en) * | 1998-10-02 | 2005-03-22 | Eastman Kodak Company | Image processing for improvement of color registration in digital images |
| CA2317803A1 (en) * | 1998-11-05 | 2000-05-18 | Myoung-Jin Kim | Method for inspecting inferiority in shape |
| JP3791216B2 (en) * | 1998-11-10 | 2006-06-28 | コニカミノルタホールディングス株式会社 | Image composition processing apparatus, image composition processing method, and computer readable recording medium recording image composition processing program |
| EP1008956A1 (en) * | 1998-12-08 | 2000-06-14 | Synoptics Limited | Automatic image montage system |
| JP3688489B2 (en) * | 1998-12-25 | 2005-08-31 | 株式会社東芝 | Image recognition method and image recognition apparatus |
| US6317141B1 (en) | 1998-12-31 | 2001-11-13 | Flashpoint Technology, Inc. | Method and apparatus for editing heterogeneous media objects in a digital imaging device |
| GB9901475D0 (en) | 1999-01-22 | 1999-03-17 | Pyrosequencing Ab | A method of DNA sequencing |
| US6437358B1 (en) | 1999-02-04 | 2002-08-20 | Applied Science Fiction, Inc. | Apparatus and methods for capturing defect data |
| US6493023B1 (en) | 1999-03-12 | 2002-12-10 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Method and apparatus for evaluating the visual quality of processed digital video sequences |
| US6724946B1 (en) * | 1999-03-26 | 2004-04-20 | Canon Kabushiki Kaisha | Image processing method, apparatus and storage medium therefor |
| US6891561B1 (en) * | 1999-03-31 | 2005-05-10 | Vulcan Patents Llc | Providing visual context for a mobile active visual display of a panoramic region |
| US7012623B1 (en) * | 1999-03-31 | 2006-03-14 | Canon Kabushiki Kaisha | Image processing method and apparatus |
| US6927874B1 (en) * | 1999-04-02 | 2005-08-09 | Canon Kabushiki Kaisha | Image processing method, apparatus and storage medium therefor |
| EP2410741A1 (en) * | 1999-04-16 | 2012-01-25 | Panasonic Corporation | Image processing apparatus and monitoring system |
| US7620909B2 (en) * | 1999-05-12 | 2009-11-17 | Imove Inc. | Interactive image seamer for panoramic images |
| JP3867883B2 (en) * | 1999-06-01 | 2007-01-17 | 株式会社リコー | Image composition processing method, image composition processing apparatus, and recording medium |
| EP1208526A2 (en) * | 1999-06-28 | 2002-05-29 | Cognitens, Ltd | Aligning a locally-reconstructed three-dimensional object to a global coordinate system |
| JP2001034737A (en) * | 1999-07-16 | 2001-02-09 | Minolta Co Ltd | Device and method for synthesizing image and computer readable recording medium with image synthetic processing program recorded thereon |
| US6507665B1 (en) * | 1999-08-25 | 2003-01-14 | Eastman Kodak Company | Method for creating environment map containing information extracted from stereo image pairs |
| US6798897B1 (en) * | 1999-09-05 | 2004-09-28 | Protrack Ltd. | Real time image registration, motion detection and background replacement using discrete local motion estimation |
| JP4224748B2 (en) * | 1999-09-13 | 2009-02-18 | ソニー株式会社 | Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, recording medium, and image processing apparatus |
| CN1375161A (en) | 1999-09-16 | 2002-10-16 | 应用科学小说公司 | Method and system for altering defects in a digital image |
| US7477284B2 (en) * | 1999-09-16 | 2009-01-13 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | System and method for capturing and viewing stereoscopic panoramic images |
| WO2001028226A1 (en) | 1999-10-08 | 2001-04-19 | Applied Science Fiction | Method and apparatus for differential illumination image-capturing and defect handling |
| WO2001027688A2 (en) | 1999-10-08 | 2001-04-19 | Applied Science Fiction, Inc. | System and method for correcting defects in digital images through selective fill-in from surrounding areas |
| DE10049752A1 (en) * | 1999-10-11 | 2001-05-10 | Heidelberger Druckmasch Ag | Procedure for exploring the precision of marking and placing edges, folds or cuts on printed samples, comprises use of detector such as CCD camera and hatched field to find jumps in contrast |
| US6924911B1 (en) | 1999-10-12 | 2005-08-02 | Eastman Kodak Company | Method and system for multi-sensor signal detection |
| US6731790B1 (en) * | 1999-10-19 | 2004-05-04 | Agfa-Gevaert | Method of enhancing color images |
| US6711302B1 (en) | 1999-10-20 | 2004-03-23 | Eastman Kodak Company | Method and system for altering defects in digital image |
| US6650704B1 (en) | 1999-10-25 | 2003-11-18 | Irvine Sensors Corporation | Method of producing a high quality, high resolution image from a sequence of low quality, low resolution images that are undersampled and subject to jitter |
| US6714672B1 (en) * | 1999-10-27 | 2004-03-30 | Canon Kabushiki Kaisha | Automated stereo fundus evaluation |
| US6829383B1 (en) * | 2000-04-28 | 2004-12-07 | Canon Kabushiki Kaisha | Stochastic adjustment of differently-illuminated images |
| JP4052498B2 (en) | 1999-10-29 | 2008-02-27 | 株式会社リコー | Coordinate input apparatus and method |
| US7006111B1 (en) * | 1999-11-09 | 2006-02-28 | Intel Corporation | Digital image stitching |
| US6694064B1 (en) | 1999-11-19 | 2004-02-17 | Positive Systems, Inc. | Digital aerial image mosaic method and apparatus |
| US6683995B2 (en) | 1999-12-23 | 2004-01-27 | Eastman Kodak Company | Method and apparatus for correcting large defects in digital images |
| JP2001184161A (en) | 1999-12-27 | 2001-07-06 | Ricoh Co Ltd | Information input method, information input device, writing input device, writing data management method, display control method, portable electronic writing device, and recording medium |
| US7164511B2 (en) * | 1999-12-29 | 2007-01-16 | Eastman Kodak Company | Distinguishing positive and negative films system and method |
| US6704458B2 (en) | 1999-12-29 | 2004-03-09 | Eastman Kodak Company | Method and apparatus for correcting heavily damaged images |
| US6720560B1 (en) | 1999-12-30 | 2004-04-13 | Eastman Kodak Company | Method and apparatus for scanning images |
| US6862117B1 (en) | 1999-12-30 | 2005-03-01 | Eastman Kodak Company | Method and apparatus for reducing the effect of bleed-through on captured images |
| WO2001055964A2 (en) * | 2000-01-27 | 2001-08-02 | Applied Precision, Llc | Flat-field panel flattening, and panel connecting methods |
| US6798923B1 (en) * | 2000-02-04 | 2004-09-28 | Industrial Technology Research Institute | Apparatus and method for providing panoramic images |
| JP4209061B2 (en) * | 2000-02-09 | 2009-01-14 | 富士フイルム株式会社 | Image processing coding / decoding method, image processing coding / decoding system, image processing coding / decoding device, image processing decoding / decoding device, and recording medium |
| US7084869B2 (en) * | 2000-03-31 | 2006-08-01 | Massachusetts Institute Of Technology | Methods and apparatus for detecting and correcting penetration between objects |
| GB2363020B (en) * | 2000-04-07 | 2004-08-18 | Discreet Logic Inc | Processing image data |
| DE10018143C5 (en) * | 2000-04-12 | 2012-09-06 | Oerlikon Trading Ag, Trübbach | DLC layer system and method and apparatus for producing such a layer system |
| US6930703B1 (en) * | 2000-04-29 | 2005-08-16 | Hewlett-Packard Development Company, L.P. | Method and apparatus for automatically capturing a plurality of images during a pan |
| US7346184B1 (en) * | 2000-05-02 | 2008-03-18 | Digimarc Corporation | Processing methods combining multiple frames of image data |
| US6546152B1 (en) * | 2000-05-04 | 2003-04-08 | Syscan Technology (Shenzhen) Co. Limited | Method and apparatus for providing images in portable 2-D scanners |
| IL136080A0 (en) * | 2000-05-11 | 2001-05-20 | Yeda Res & Dev | Sequence-to-sequence alignment |
| US6411742B1 (en) * | 2000-05-16 | 2002-06-25 | Adobe Systems Incorporated | Merging images to form a panoramic image |
| EP1290557B1 (en) * | 2000-06-02 | 2004-10-13 | Koninklijke Philips Electronics N.V. | Method and apparatus for merging images |
| US6834128B1 (en) * | 2000-06-16 | 2004-12-21 | Hewlett-Packard Development Company, L.P. | Image mosaicing system and method adapted to mass-market hand-held digital cameras |
| US9709559B2 (en) | 2000-06-21 | 2017-07-18 | Bioarray Solutions, Ltd. | Multianalyte molecular analysis using application-specific random particle arrays |
| AU7299301A (en) | 2000-06-21 | 2002-01-02 | Bioarray Solutions Ltd | Multianalyte molecular analysis using application-specific random particle arrays |
| US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
| US6788333B1 (en) * | 2000-07-07 | 2004-09-07 | Microsoft Corporation | Panoramic video |
| US6813391B1 (en) * | 2000-07-07 | 2004-11-02 | Microsoft Corp. | System and method for exposure compensation |
| JP2002109555A (en) * | 2000-07-24 | 2002-04-12 | Mitsubishi Electric Corp | Virtual cosmetic surgery system and virtual cosmetic surgery method |
| US7313289B2 (en) * | 2000-08-30 | 2007-12-25 | Ricoh Company, Ltd. | Image processing method and apparatus and computer-readable storage medium using improved distortion correction |
| US7095905B1 (en) | 2000-09-08 | 2006-08-22 | Adobe Systems Incorporated | Merging images to form a panoramic image |
| AU2001295059A1 (en) * | 2000-09-22 | 2002-04-02 | Applied Science Fiction | Multiple-orientation image defect detection and correction |
| AU2001293021A1 (en) * | 2000-09-22 | 2002-04-02 | Applied Science Fiction | Lens focusing device, system and method for use with multiple light wavelengths |
| US6445832B1 (en) * | 2000-10-10 | 2002-09-03 | Lockheed Martin Corporation | Balanced template tracker for tracking an object image sequence |
| US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
| US20080040227A1 (en) * | 2000-11-03 | 2008-02-14 | At&T Corp. | System and method of marketing using a multi-media communication system |
| US6976082B1 (en) | 2000-11-03 | 2005-12-13 | At&T Corp. | System and method for receiving multi-media messages |
| US6963839B1 (en) | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
| US6990452B1 (en) | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
| US7203648B1 (en) | 2000-11-03 | 2007-04-10 | At&T Corp. | Method for sending multi-media messages with customized audio |
| US7091976B1 (en) | 2000-11-03 | 2006-08-15 | At&T Corp. | System and method of customizing animated entities for use in a multi-media communication application |
| US6898332B2 (en) * | 2000-11-15 | 2005-05-24 | Seiko Epson Corporation | Image processing device and image processing method |
| US7602904B2 (en) * | 2000-11-27 | 2009-10-13 | Rsa Security, Inc. | Order invariant fuzzy commitment system |
| IL139995A (en) | 2000-11-29 | 2007-07-24 | Rvc Llc | System and method for spherical stereoscopic photographing |
| US7260274B2 (en) | 2000-12-01 | 2007-08-21 | Imax Corporation | Techniques and systems for developing high-resolution imagery |
| US6650396B2 (en) | 2000-12-04 | 2003-11-18 | Hytechnology, Inc. | Method and processor for stereo cylindrical imaging |
| IL156250A0 (en) * | 2000-12-05 | 2004-01-04 | Yeda Res & Dev | Apparatus and method for alignment of spatial or temporal non-overlapping image sequences |
| US6975352B2 (en) * | 2000-12-18 | 2005-12-13 | Xerox Corporation | Apparatus and method for capturing a composite digital image with regions of varied focus and magnification |
| KR100407685B1 (en) * | 2001-01-12 | 2003-12-01 | 윤경현 | Method for representing Color paper mosaic using computer |
| FR2821960A1 (en) * | 2001-03-06 | 2002-09-13 | 7Eme Sens Soc | Digital image processing and transmission, in which to limit image file size, only parts of images that vary from preceding images are transmitted |
| US7103234B2 (en) * | 2001-03-30 | 2006-09-05 | Nec Laboratories America, Inc. | Method for blind cross-spectral image registration |
| US6987892B2 (en) * | 2001-04-19 | 2006-01-17 | Eastman Kodak Company | Method, system and software for correcting image defects |
| US7006707B2 (en) * | 2001-05-03 | 2006-02-28 | Adobe Systems Incorporated | Projecting images onto a surface |
| KR100425447B1 (en) * | 2001-05-10 | 2004-03-30 | 삼성전자주식회사 | Method of grey level compensation and selective wafer-defect inspection for patterns and recording medium recorded thereof |
| US7046401B2 (en) * | 2001-06-01 | 2006-05-16 | Hewlett-Packard Development Company, L.P. | Camera-based document scanning system using multiple-pass mosaicking |
| US20040201698A1 (en) * | 2001-06-08 | 2004-10-14 | Keenan Vaughn E. | Camera-based system for capturing images of a target area |
| US7154515B2 (en) * | 2001-06-15 | 2006-12-26 | Perkinelmer, Inc. | Method and apparatus for reducing printing artifacts of stitched images |
| US7262063B2 (en) | 2001-06-21 | 2007-08-28 | Bio Array Solutions, Ltd. | Directed assembly of functional heterostructures |
| WO2003001788A2 (en) * | 2001-06-25 | 2003-01-03 | Redhawk Vision Inc. | Video event capture, storage and processing method and apparatus |
| US6845178B1 (en) * | 2001-06-27 | 2005-01-18 | Electro Scientific Industries, Inc. | Automatic separation of subject pixels using segmentation based on multiple planes of measurement data |
| EP1273928A1 (en) * | 2001-07-06 | 2003-01-08 | Leica Geosystems AG | Method and device for suppressing electromagnetic background radiation in an image |
| JP2005531935A (en) * | 2001-07-12 | 2005-10-20 | アトルア テクノロジーズ インコーポレイテッド | Method and system for biometric image assembly from multiple partial biometric frame scans |
| US7119811B2 (en) * | 2001-08-10 | 2006-10-10 | Pixia Corp. | Image display system |
| US6947059B2 (en) * | 2001-08-10 | 2005-09-20 | Micoy Corporation | Stereoscopic panoramic image capture device |
| US7103236B2 (en) * | 2001-08-28 | 2006-09-05 | Adobe Systems Incorporated | Methods and apparatus for shifting perspective in a composite image |
| CA2463671C (en) * | 2001-09-13 | 2013-07-02 | Pixia Corp. | A system and method to display and navigate large images |
| US6912695B2 (en) * | 2001-09-13 | 2005-06-28 | Pixia Corp. | Data storage and retrieval system and method |
| US7734075B2 (en) * | 2001-10-04 | 2010-06-08 | Siemens Medical Solutions Usa, Inc. | Contrast-invariant registration of cardiac and renal magnetic resonance perfusion images |
| JP2003115050A (en) * | 2001-10-04 | 2003-04-18 | Sony Corp | Video data processing device and video data processing method, data distribution device and data distribution method, data receiving device and data receiving method, storage medium, and computer program |
| ES2712173T3 (en) | 2001-10-15 | 2019-05-09 | Bioarray Solutions Ltd | Multiplex analysis of polymorphic loci through simultaneous consultation and enzyme-mediated detection |
| US20030076982A1 (en) * | 2001-10-18 | 2003-04-24 | Sawhney Harpreet S. | Multiple hypothesis method of optical flow |
| US7671861B1 (en) * | 2001-11-02 | 2010-03-02 | At&T Intellectual Property Ii, L.P. | Apparatus and method of customizing animated entities for use in a multi-media communication application |
| US20030086596A1 (en) * | 2001-11-07 | 2003-05-08 | Medical Metrics, Inc. | Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae |
| US7010158B2 (en) * | 2001-11-13 | 2006-03-07 | Eastman Kodak Company | Method and apparatus for three-dimensional scene modeling and reconstruction |
| JP3975736B2 (en) * | 2001-12-07 | 2007-09-12 | ソニー株式会社 | Image processing apparatus, image processing method, storage medium, and computer program |
| US7257252B2 (en) * | 2001-12-12 | 2007-08-14 | Sony Corporation | Voting-based video background mosaicking |
| US7277580B2 (en) * | 2001-12-12 | 2007-10-02 | Sony Corporation | Multiple thresholding for video frame segmentation |
| KR20030059399A (en) * | 2001-12-29 | 2003-07-10 | 엘지전자 주식회사 | Video browsing systme based on mosaic image |
| US7092584B2 (en) * | 2002-01-04 | 2006-08-15 | Time Warner Entertainment Company Lp | Registration of separations |
| US6947607B2 (en) | 2002-01-04 | 2005-09-20 | Warner Bros. Entertainment Inc. | Reduction of differential resolution of separations |
| US7127125B2 (en) * | 2002-01-04 | 2006-10-24 | Warner Bros. Entertainment Inc. | Registration of separations |
| US6993204B1 (en) * | 2002-01-04 | 2006-01-31 | Pixon Llc | High speed signal enhancement using pixons |
| US7492379B2 (en) * | 2002-01-07 | 2009-02-17 | Samsung Electronics Co., Ltd. | Color flat panel display sub-pixel arrangements and layouts for sub-pixel rendering with increased modulation transfer function response |
| US7417648B2 (en) | 2002-01-07 | 2008-08-26 | Samsung Electronics Co. Ltd., | Color flat panel display sub-pixel arrangements and layouts for sub-pixel rendering with split blue sub-pixels |
| SE520949C2 (en) * | 2002-01-15 | 2003-09-16 | Sven-Aake Afsenius | Digital camera with viewfinder for depth-of-field imaging |
| US6762769B2 (en) * | 2002-01-23 | 2004-07-13 | Microsoft Corporation | System and method for real-time texture synthesis using patch-based sampling |
| DE60316738T2 (en) * | 2002-03-08 | 2008-07-24 | Topcon Corp. | Apparatus and method for stereoscopic image reproduction |
| US7856055B2 (en) | 2002-03-13 | 2010-12-21 | Imax Corporation | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data |
| CA2380105A1 (en) | 2002-04-09 | 2003-10-09 | Nicholas Routhier | Process and system for encoding and playback of stereoscopic video sequences |
| AU2003226047A1 (en) * | 2002-04-10 | 2003-10-27 | Pan-X Imaging, Inc. | A digital imaging system |
| US7006706B2 (en) * | 2002-04-12 | 2006-02-28 | Hewlett-Packard Development Company, L.P. | Imaging apparatuses, mosaic image compositing methods, video stitching methods and edgemap generation methods |
| US20040070616A1 (en) * | 2002-06-02 | 2004-04-15 | Hildebrandt Peter W. | Electronic whiteboard |
| US7259784B2 (en) * | 2002-06-21 | 2007-08-21 | Microsoft Corporation | System and method for camera color calibration and image stitching |
| US7154140B2 (en) * | 2002-06-21 | 2006-12-26 | Micron Technology, Inc. | Write once read only memory with large work function floating gates |
| AU2003272202A1 (en) * | 2002-06-21 | 2004-01-06 | The Trustees Of Columbia University In The City Of New York | Systems and methods for de-blurring motion blurred images |
| US7184609B2 (en) * | 2002-06-28 | 2007-02-27 | Microsoft Corp. | System and method for head size equalization in 360 degree panoramic images |
| US7243239B2 (en) * | 2002-06-28 | 2007-07-10 | Microsoft Corporation | Click passwords |
| US7502641B2 (en) * | 2002-07-09 | 2009-03-10 | Aecc Enterprises Limited | Method for imaging the relative motion of skeletal segments |
| FR2843252A1 (en) * | 2002-07-30 | 2004-02-06 | Thomson Licensing Sa | METHOD FOR COMPRESSING DIGITAL DATA OF A VIDEO SEQUENCE HAVING ALTERNATE SHOTS |
| SE0202342D0 (en) * | 2002-07-31 | 2002-07-31 | Scalado Ab | System and method for displaying digital images linked together to enable navigation through views |
| US7893957B2 (en) * | 2002-08-28 | 2011-02-22 | Visual Intelligence, LP | Retinal array compound camera system |
| US8483960B2 (en) | 2002-09-20 | 2013-07-09 | Visual Intelligence, LP | Self-calibrated, remote imaging and data processing system |
| US8994822B2 (en) | 2002-08-28 | 2015-03-31 | Visual Intelligence Lp | Infrastructure mapping system and method |
| ATE528724T1 (en) * | 2002-08-30 | 2011-10-15 | Mvtec Software Gmbh | OBJECT RECOGNITION BASED ON HIERARCHICAL LINKS |
| US6928194B2 (en) * | 2002-09-19 | 2005-08-09 | M7 Visual Intelligence, Lp | System for mosaicing digital ortho-images |
| JP4115220B2 (en) * | 2002-09-19 | 2008-07-09 | キヤノン株式会社 | Imaging device |
| USRE49105E1 (en) | 2002-09-20 | 2022-06-14 | Vi Technologies, Llc | Self-calibrated, remote imaging and data processing system |
| JP2004118786A (en) * | 2002-09-30 | 2004-04-15 | Sony Corp | Image processing apparatus and method, recording medium, and program |
| US7171057B1 (en) | 2002-10-16 | 2007-01-30 | Adobe Systems Incorporated | Image blending using non-affine interpolation |
| US7049073B2 (en) | 2002-10-30 | 2006-05-23 | The University Of Chicago | Double stranded nucleic acid biochips |
| US7526114B2 (en) | 2002-11-15 | 2009-04-28 | Bioarray Solutions Ltd. | Analysis, secure access to, and transmission of array images |
| US6954197B2 (en) | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
| US7450785B2 (en) * | 2003-01-22 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Method and device for sorting similar images |
| US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
| US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
| US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
| US7684624B2 (en) * | 2003-03-03 | 2010-03-23 | Smart Technologies Ulc | System and method for capturing images of a target area on which information is recorded |
| US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
| EP1460557A3 (en) * | 2003-03-12 | 2006-04-05 | Eastman Kodak Company | Manual and automatic alignement of pages |
| JP2004334843A (en) * | 2003-04-15 | 2004-11-25 | Seiko Epson Corp | How to combine images from multiple images |
| JP4120677B2 (en) * | 2003-04-17 | 2008-07-16 | セイコーエプソン株式会社 | Generation of still images from multiple frame images |
| US7549170B2 (en) * | 2003-04-30 | 2009-06-16 | Microsoft Corporation | System and method of inkblot authentication |
| US20040229269A1 (en) * | 2003-05-15 | 2004-11-18 | Ghazala Hashmi | Hybridization-mediated analysis of polymorphisms |
| US7260258B2 (en) * | 2003-06-12 | 2007-08-21 | Fuji Xerox Co., Ltd. | Methods for multisource color normalization |
| US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
| US7587085B2 (en) | 2004-10-28 | 2009-09-08 | Fotonation Vision Limited | Method and apparatus for red-eye detection in an acquired digital image |
| US8036458B2 (en) | 2007-11-08 | 2011-10-11 | DigitalOptics Corporation Europe Limited | Detecting redeye defects in digital images |
| US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
| US7920723B2 (en) | 2005-11-18 | 2011-04-05 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
| US7970182B2 (en) | 2005-11-18 | 2011-06-28 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
| US7689009B2 (en) | 2005-11-18 | 2010-03-30 | Fotonation Vision Ltd. | Two stage detection for photographic eye artifacts |
| JP2005039785A (en) * | 2003-06-30 | 2005-02-10 | Seiko Epson Corp | Image processing apparatus, method, and program |
| FR2857133A1 (en) * | 2003-07-03 | 2005-01-07 | Thomson Licensing Sa | PROCESS FOR GENERATING FLOU |
| US8520093B2 (en) | 2003-08-05 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Face tracker and partial face tracker for red-eye filter method and apparatus |
| US9412007B2 (en) | 2003-08-05 | 2016-08-09 | Fotonation Limited | Partial face detector red-eye filter method and apparatus |
| DE602004007144D1 (en) * | 2003-08-07 | 2007-08-02 | Koninkl Philips Electronics Nv | DETECTION OF GRAPHIC OVERLAYS |
| US7643703B2 (en) * | 2003-09-03 | 2010-01-05 | Battelle Energy Alliance, Llc | Image change detection systems, methods, and articles of manufacture |
| EP1671258A4 (en) * | 2003-09-04 | 2008-03-19 | Sarnoff Corp | Method and apparatus for performing iris recognition from an image |
| CN100498835C (en) * | 2003-09-08 | 2009-06-10 | 日本电气株式会社 | Image combining system, image combining method |
| US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| US7927796B2 (en) | 2003-09-18 | 2011-04-19 | Bioarray Solutions, Ltd. | Number coding for identification of subtypes of coded types of solid phase carriers |
| CN1882699A (en) | 2003-09-22 | 2006-12-20 | 佰尔瑞溶液有限公司 | Surface immobilized polyelectrolyte with multiple functional groups capable of covalently bonding to biomolecules |
| US20050063608A1 (en) * | 2003-09-24 | 2005-03-24 | Ian Clarke | System and method for creating a panorama image from a plurality of source images |
| EP1667439A4 (en) * | 2003-09-26 | 2006-11-08 | Sharp Kk | Panorama image creation device and panorama image imaging device |
| US7274356B2 (en) | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
| EP1692298A4 (en) | 2003-10-28 | 2008-08-13 | Bioarray Solutions Ltd | Optimization of gene expression analysis using immobilized capture probes |
| US7525526B2 (en) * | 2003-10-28 | 2009-04-28 | Samsung Electronics Co., Ltd. | System and method for performing image reconstruction and subpixel rendering to effect scaling for multi-mode display |
| WO2005041564A1 (en) * | 2003-10-28 | 2005-05-06 | Koninklijke Philips Electronics N.V. | Digital camera with panorama or mosaic functionality |
| JP2007509629A (en) | 2003-10-29 | 2007-04-19 | バイオアレイ ソリューションズ リミテッド | Complex nucleic acid analysis by cleavage of double-stranded DNA |
| US7738731B2 (en) * | 2003-11-11 | 2010-06-15 | Seiko Epson Corporation | Image processing device, image processing method, program thereof, and recording medium |
| US20050111753A1 (en) * | 2003-11-20 | 2005-05-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Image mosaicing responsive to camera ego motion |
| US7506267B2 (en) * | 2003-12-23 | 2009-03-17 | Intel Corporation | Compose rate reduction for displays |
| US7616220B2 (en) * | 2003-12-23 | 2009-11-10 | Intel Corporation | Spatio-temporal generation of motion blur |
| CN1922892B (en) | 2003-12-26 | 2012-08-15 | 米科伊公司 | Multidimensional imaging device, system and method |
| US7355593B2 (en) | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
| US7232986B2 (en) * | 2004-02-17 | 2007-06-19 | Smart Technologies Inc. | Apparatus for detecting a pointer within a region of interest |
| US7065449B2 (en) * | 2004-03-05 | 2006-06-20 | Bell Geospace, Inc. | Method and system for evaluating geophysical survey data |
| US7966563B2 (en) * | 2004-03-12 | 2011-06-21 | Vanbree Ken | System for organizing and displaying registered images |
| US10721405B2 (en) | 2004-03-25 | 2020-07-21 | Clear Imaging Research, Llc | Method and apparatus for implementing a digital graduated filter for an imaging apparatus |
| WO2005093654A2 (en) | 2004-03-25 | 2005-10-06 | Fatih Ozluturk | Method and apparatus to correct digital image blur due to motion of subject or imaging device |
| US9826159B2 (en) | 2004-03-25 | 2017-11-21 | Clear Imaging Research, Llc | Method and apparatus for implementing a digital graduated filter for an imaging apparatus |
| US7813589B2 (en) * | 2004-04-01 | 2010-10-12 | Hewlett-Packard Development Company, L.P. | System and method for blending images into a single image |
| US7460110B2 (en) | 2004-04-29 | 2008-12-02 | Smart Technologies Ulc | Dual mode touch system |
| US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
| US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
| US20050285947A1 (en) * | 2004-06-21 | 2005-12-29 | Grindstaff Gene A | Real-time stabilization |
| GB2415566B (en) * | 2004-06-24 | 2006-09-20 | Hewlett Packard Development Co | Image processing |
| US7693329B2 (en) * | 2004-06-30 | 2010-04-06 | Lexmark International, Inc. | Bound document scanning method and apparatus |
| KR101042638B1 (en) * | 2004-07-27 | 2011-06-20 | 삼성전자주식회사 | Digital imaging device for generating panoramic image and method of generating same |
| US7848889B2 (en) | 2004-08-02 | 2010-12-07 | Bioarray Solutions, Ltd. | Automated analysis of multiplexed probe-target interaction patterns: pattern matching and allele identification |
| US20070103544A1 (en) * | 2004-08-26 | 2007-05-10 | Naofumi Nakazawa | Panorama image creation device and panorama image imaging device |
| JP3918854B2 (en) * | 2004-09-06 | 2007-05-23 | オムロン株式会社 | Substrate inspection method and substrate inspection apparatus |
| DE102004049676A1 (en) * | 2004-10-12 | 2006-04-20 | Infineon Technologies Ag | Method for computer-aided motion estimation in a plurality of temporally successive digital images, arrangement for computer-aided motion estimation, computer program element and computer-readable storage medium |
| JP2006115078A (en) * | 2004-10-13 | 2006-04-27 | Matsushita Electric Ind Co Ltd | Image data signal processing apparatus and method |
| WO2006048875A2 (en) * | 2004-11-05 | 2006-05-11 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for spatio-temporal video warping |
| US20060098897A1 (en) * | 2004-11-10 | 2006-05-11 | Agfa-Gevaert | Method of superimposing images |
| US7756358B2 (en) * | 2004-11-30 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | System and method of aligning images |
| US7327902B2 (en) * | 2004-12-10 | 2008-02-05 | Radiological Imaging Technology, Inc. | Optimizing image alignment |
| US7963448B2 (en) | 2004-12-22 | 2011-06-21 | Cognex Technology And Investment Corporation | Hand held machine vision method and apparatus |
| US9552506B1 (en) | 2004-12-23 | 2017-01-24 | Cognex Technology And Investment Llc | Method and apparatus for industrial identification mark verification |
| FR2880453A1 (en) * | 2005-01-06 | 2006-07-07 | Thomson Licensing Sa | METHOD AND DEVICE FOR PROCESSING IMAGE MOSAIC |
| US7853041B2 (en) * | 2005-01-07 | 2010-12-14 | Gesturetek, Inc. | Detecting and tracking objects in images |
| EP1849123A2 (en) * | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
| US7430312B2 (en) * | 2005-01-07 | 2008-09-30 | Gesturetek, Inc. | Creating 3D images of objects by illuminating with infrared patterns |
| ATE551675T1 (en) * | 2005-01-21 | 2012-04-15 | Qualcomm Inc | MOTION BASED TRACKING |
| US7653264B2 (en) * | 2005-03-04 | 2010-01-26 | The Regents Of The University Of Michigan | Method of determining alignment of images in high dimensional feature space |
| US7953983B2 (en) | 2005-03-08 | 2011-05-31 | Microsoft Corporation | Image or pictographic based computer login systems and methods |
| US20060215934A1 (en) * | 2005-03-25 | 2006-09-28 | Yissum Research Development Co of the Hebrew University of Jerusalem Israeli Co | Online registration of dynamic scenes using video extrapolation |
| US8645870B2 (en) | 2005-03-31 | 2014-02-04 | Adobe Systems Incorporated | Preview cursor for image editing |
| US7872665B2 (en) | 2005-05-13 | 2011-01-18 | Micoy Corporation | Image capture and processing |
| KR101403172B1 (en) * | 2005-05-17 | 2014-06-03 | 퀄컴 인코포레이티드 | Direction-sensitive signal output |
| US8486629B2 (en) | 2005-06-01 | 2013-07-16 | Bioarray Solutions, Ltd. | Creation of functionalized microparticle libraries by oligonucleotide ligation or elongation |
| US7817160B2 (en) * | 2005-06-30 | 2010-10-19 | Microsoft Corporation | Sub-pass correction using neighborhood matching |
| US7593599B2 (en) * | 2005-06-30 | 2009-09-22 | Corning Incorporated | Method of assembling a composite data map having a closed-form solution |
| US8219940B2 (en) * | 2005-07-06 | 2012-07-10 | Semiconductor Insights Inc. | Method and apparatus for removing dummy features from a data structure |
| US8194946B2 (en) * | 2005-07-28 | 2012-06-05 | Fujifilm Corporation | Aligning apparatus, aligning method, and the program |
| US20070031063A1 (en) * | 2005-08-05 | 2007-02-08 | Hui Zhou | Method and apparatus for generating a composite image from a set of images |
| US20070081081A1 (en) * | 2005-10-07 | 2007-04-12 | Cheng Brett A | Automated multi-frame image capture for panorama stitching using motion sensor |
| US7539349B2 (en) * | 2005-10-25 | 2009-05-26 | Hewlett-Packard Development Company, L.P. | Clear image using pixel voting |
| US7599577B2 (en) | 2005-11-18 | 2009-10-06 | Fotonation Vision Limited | Method and apparatus of correcting hybrid flash artifacts in digital images |
| US7801351B2 (en) * | 2005-11-22 | 2010-09-21 | General Electric Company | Method and system to manage digital medical images |
| US7660464B1 (en) | 2005-12-22 | 2010-02-09 | Adobe Systems Incorporated | User interface for high dynamic range merge image selection |
| US20070165007A1 (en) * | 2006-01-13 | 2007-07-19 | Gerald Morrison | Interactive input system |
| US7639897B2 (en) * | 2006-01-24 | 2009-12-29 | Hewlett-Packard Development Company, L.P. | Method and apparatus for composing a panoramic photograph |
| CN101375315B (en) | 2006-01-27 | 2015-03-18 | 图象公司 | Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality |
| WO2007095553A2 (en) | 2006-02-14 | 2007-08-23 | Fotonation Vision Limited | Automatic detection and correction of non-red eye flash defects |
| US20090263039A1 (en) * | 2006-03-29 | 2009-10-22 | Koninklijke Philips Electronics N.V. | Method and system for improving visual quality of an image signal |
| KR100972764B1 (en) * | 2006-03-30 | 2010-07-28 | 닛본 덴끼 가부시끼가이샤 | A recording medium comprising an image processing apparatus, an image processing method and an image processing program |
| FR2899344B1 (en) * | 2006-04-03 | 2008-08-15 | Eads Astrium Sas Soc Par Actio | METHOD FOR RESTITUTION OF MOVEMENTS OF THE OPTICAL LINE OF AN OPTICAL INSTRUMENT |
| US7860343B2 (en) * | 2006-04-10 | 2010-12-28 | Nokia Corporation | Constructing image panorama using frame selection |
| US8676293B2 (en) * | 2006-04-13 | 2014-03-18 | Aecc Enterprises Ltd. | Devices, systems and methods for measuring and evaluating the motion and function of joint structures and associated muscles, determining suitability for orthopedic intervention, and evaluating efficacy of orthopedic intervention |
| US20100245571A1 (en) * | 2006-04-24 | 2010-09-30 | Northrop Grumman Corporation | Global hawk image mosaic |
| CN101427283A (en) * | 2006-04-24 | 2009-05-06 | Nxp股份有限公司 | Method and device for generating a panoramic image from a video sequence |
| US7912296B1 (en) | 2006-05-02 | 2011-03-22 | Google Inc. | Coverage mask generation for large images |
| US7742659B2 (en) * | 2006-05-09 | 2010-06-22 | Arcsoft, Inc. | Edge based auto order supporting rotation algorithm |
| US7965902B1 (en) | 2006-05-19 | 2011-06-21 | Google Inc. | Large-scale image processing using mass parallelization techniques |
| KR101341265B1 (en) * | 2006-05-29 | 2013-12-12 | 네브테크 비. 브이. | Method and arrangement for processing data sets of imaging sensors, a corresponding computer program, and a corresponding computer-readable storage medium |
| ATE497218T1 (en) | 2006-06-12 | 2011-02-15 | Tessera Tech Ireland Ltd | ADVANCES IN EXPANSING AAM TECHNIQUES FROM GRAYSCALE TO COLOR IMAGES |
| US8762493B1 (en) | 2006-06-22 | 2014-06-24 | Google Inc. | Hierarchical spatial data structure and 3D index data versioning for generating packet data |
| EP2033164B1 (en) | 2006-06-23 | 2015-10-07 | Imax Corporation | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
| US7817161B2 (en) | 2006-06-26 | 2010-10-19 | Microsoft Corporation | Texture synthesis using dimensionality-reduced appearance space |
| US8108176B2 (en) * | 2006-06-29 | 2012-01-31 | Cognex Corporation | Method and apparatus for verifying two dimensional mark quality |
| US7643034B2 (en) * | 2006-06-30 | 2010-01-05 | Microsoft Corporation | Synthesis of advecting texture using adaptive regeneration |
| US7733350B2 (en) * | 2006-06-30 | 2010-06-08 | Microsoft Corporation | Anisometric texture synthesis |
| WO2008004222A2 (en) | 2006-07-03 | 2008-01-10 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Computer image-aided method and system for guiding instruments through hollow cavities |
| US7984854B2 (en) * | 2006-07-17 | 2011-07-26 | Cognex Corporation | Method and apparatus for multiplexed symbol decoding |
| US8098330B2 (en) * | 2006-07-28 | 2012-01-17 | International Business Machines Corporation | Mapping of presentation material |
| DE602007007340D1 (en) * | 2006-08-21 | 2010-08-05 | Sti Medical Systems Llc | COMPUTER-ASSISTED ANALYSIS USING VIDEO DATA FROM ENDOSCOPES |
| US7945117B2 (en) * | 2006-08-22 | 2011-05-17 | Siemens Medical Solutions Usa, Inc. | Methods and systems for registration of images |
| US9224145B1 (en) | 2006-08-30 | 2015-12-29 | Qurio Holdings, Inc. | Venue based digital rights using capture device with digital watermarking capability |
| US8144919B2 (en) * | 2006-09-22 | 2012-03-27 | Fuji Xerox Co., Ltd. | Annealing algorithm for non-rectangular shaped stained glass collages |
| US7714892B2 (en) * | 2006-11-08 | 2010-05-11 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Systems, devices and methods for digital camera image stabilization |
| US7778487B2 (en) * | 2006-11-19 | 2010-08-17 | Microsoft Corp. | Region selection for image compositing |
| CN101191719A (en) * | 2006-12-01 | 2008-06-04 | 鸿富锦精密工业(深圳)有限公司 | Image focus synthesis system and method |
| KR100856411B1 (en) * | 2006-12-01 | 2008-09-04 | 삼성전자주식회사 | Illuminance compensation method and apparatus and computer readable recording medium recording the method |
| US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
| JP5230873B2 (en) * | 2006-12-13 | 2013-07-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Image joining method and device for joining digital images together |
| US7995861B2 (en) * | 2006-12-13 | 2011-08-09 | Adobe Systems Incorporated | Selecting a reference image for images to be joined |
| US8169478B2 (en) * | 2006-12-14 | 2012-05-01 | Cognex Corporation | Method and apparatus for calibrating a mark verifier |
| US7865285B2 (en) * | 2006-12-27 | 2011-01-04 | Caterpillar Inc | Machine control system and method |
| EP2104905A4 (en) * | 2006-12-29 | 2010-12-29 | Gesturetek Inc | Manipulation of virtual objects using enhanced interactive system |
| US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
| WO2008109708A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Red eye false positive filtering using face location and orientation |
| US7895533B2 (en) * | 2007-03-13 | 2011-02-22 | Apple Inc. | Interactive image thumbnails |
| CN101275831B (en) * | 2007-03-26 | 2011-06-22 | 鸿富锦精密工业(深圳)有限公司 | Image offline processing system and method |
| US7738017B2 (en) * | 2007-03-27 | 2010-06-15 | Aptina Imaging Corporation | Method and apparatus for automatic linear shift parallax correction for multi-array image systems |
| US8200039B2 (en) * | 2007-04-05 | 2012-06-12 | Adobe Systems Incorporated | Laying out multiple images |
| US8115753B2 (en) | 2007-04-11 | 2012-02-14 | Next Holdings Limited | Touch screen system with hover and click input methods |
| HUE038192T2 (en) | 2007-04-12 | 2018-10-29 | Dolby Int Ab | Tiling in video encoding and decoding |
| EP2163103B1 (en) * | 2007-06-26 | 2017-05-03 | Koninklijke Philips N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
| US8068693B2 (en) | 2007-07-18 | 2011-11-29 | Samsung Electronics Co., Ltd. | Method for constructing a composite image |
| US8717412B2 (en) * | 2007-07-18 | 2014-05-06 | Samsung Electronics Co., Ltd. | Panoramic image production |
| US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
| JP4377932B2 (en) * | 2007-07-26 | 2009-12-02 | 株式会社モルフォ | Panorama image generating apparatus and program |
| US8031875B1 (en) | 2007-08-09 | 2011-10-04 | Emc Corporation | Key distribution in unidirectional channels with applications to RFID |
| WO2009026015A1 (en) * | 2007-08-20 | 2009-02-26 | Edward Acworth | Method and apparatus for making a mosaic |
| US8384693B2 (en) * | 2007-08-30 | 2013-02-26 | Next Holdings Limited | Low profile touch panel systems |
| CN101802760B (en) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | Optical touch screen with improved illumination |
| US8270764B1 (en) * | 2007-09-21 | 2012-09-18 | Adobe Systems Incorporated | Replacing pixels within a boundary area of a base image to generate a composite image |
| US8437514B2 (en) * | 2007-10-02 | 2013-05-07 | Microsoft Corporation | Cartoon face generation |
| US20090099481A1 (en) | 2007-10-10 | 2009-04-16 | Adam Deitz | Devices, Systems and Methods for Measuring and Evaluating the Motion and Function of Joints and Associated Muscles |
| US9734376B2 (en) | 2007-11-13 | 2017-08-15 | Cognex Corporation | System and method for reading patterns using multiple image frames |
| US8131113B1 (en) | 2007-11-29 | 2012-03-06 | Adobe Systems Incorporated | Method and apparatus for estimating rotation, focal lengths and radial distortion in panoramic image stitching |
| US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
| CN101482968B (en) * | 2008-01-07 | 2013-01-23 | 日电(中国)有限公司 | Image processing method and equipment |
| US8126858B1 (en) | 2008-01-23 | 2012-02-28 | A9.Com, Inc. | System and method for delivering content to a communication device in a content delivery system |
| US8098957B2 (en) * | 2008-02-13 | 2012-01-17 | Qualcomm Incorporated | Shared block comparison architechture for image registration and video coding |
| US8831379B2 (en) * | 2008-04-04 | 2014-09-09 | Microsoft Corporation | Cartoon personalization |
| US8189959B2 (en) * | 2008-04-17 | 2012-05-29 | Microsoft Corporation | Image blending using multi-splines |
| US20090278816A1 (en) * | 2008-05-06 | 2009-11-12 | Next Holdings Limited | Systems and Methods For Resolving Multitouch Scenarios Using Software Filters |
| US8902193B2 (en) | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
| WO2009146297A1 (en) * | 2008-05-27 | 2009-12-03 | Nikon Corporation | Device and method for estimating whether an image is blurred |
| US20090309853A1 (en) * | 2008-06-13 | 2009-12-17 | Polyvision Corporation | Electronic whiteboard system and assembly with optical detection elements |
| US8588547B2 (en) * | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
| US8170278B2 (en) * | 2008-08-06 | 2012-05-01 | Sri International | System and method for detecting and tracking an object of interest in spatio-temporal space |
| US9307165B2 (en) * | 2008-08-08 | 2016-04-05 | Qualcomm Technologies, Inc. | In-camera panorama image stitching assistance |
| US10332226B2 (en) | 2008-08-13 | 2019-06-25 | Greentire Energy Llc | Techniques for locating and operating gasification plant having predominately scrap tire rubber as feedstock |
| WO2010025309A1 (en) * | 2008-08-28 | 2010-03-04 | Zoran Corporation | Robust fast panorama stitching in mobile phones or cameras |
| JP2010068193A (en) * | 2008-09-10 | 2010-03-25 | Fujifilm Corp | Image processing apparatus, imaging apparatus, image processing method, and program |
| US8290346B2 (en) | 2008-09-25 | 2012-10-16 | Pixia Corp. | Large format video archival, storage, and retrieval system and method |
| US8238694B2 (en) * | 2008-10-03 | 2012-08-07 | Microsoft Corporation | Alignment of sharp and blurred images based on blur kernel sparseness |
| GB2464967A (en) * | 2008-10-31 | 2010-05-05 | Hewlett Packard Development Co | Adding a Data Item to a Composition of Data Items |
| US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
| US8830268B2 (en) * | 2008-11-07 | 2014-09-09 | Barco Nv | Non-linear image mapping using a plurality of non-linear image mappers of lesser resolution |
| EP2184926A1 (en) | 2008-11-07 | 2010-05-12 | Barco NV | Non-linear image mapping using a plurality of non-linear image mappers of lesser resolution |
| US20100142814A1 (en) * | 2008-12-04 | 2010-06-10 | Harris Corporation | Image processing device for tonal balancing of mosaic images and related methods |
| US20100142842A1 (en) * | 2008-12-04 | 2010-06-10 | Harris Corporation | Image processing device for determining cut lines and related methods |
| US20100158359A1 (en) * | 2008-12-18 | 2010-06-24 | Yue Qiao | Image data clustering and color conversion |
| US20100165087A1 (en) * | 2008-12-31 | 2010-07-01 | Corso Jason J | System and method for mosaicing endoscope images captured from within a cavity |
| US8406507B2 (en) * | 2009-01-14 | 2013-03-26 | A9.Com, Inc. | Method and system for representing image patches |
| US9036714B2 (en) | 2009-01-26 | 2015-05-19 | Thomson Licensing | Frame packing for video coding |
| US8738647B2 (en) * | 2009-02-18 | 2014-05-27 | A9.Com, Inc. | Method and system for image matching |
| CN105744284B (en) | 2009-02-19 | 2019-04-19 | 交互数字麦迪逊专利控股公司 | Use the device of 3D video format |
| US8385591B1 (en) | 2009-04-28 | 2013-02-26 | Google Inc. | System and method of using images to determine correspondence between locations |
| US8639046B2 (en) * | 2009-05-04 | 2014-01-28 | Mamigo Inc | Method and system for scalable multi-user interactive visualization |
| US8126247B2 (en) * | 2009-05-19 | 2012-02-28 | National Tsing Hua University | Image preprocessing system for 3D image database construction |
| US8605783B2 (en) * | 2009-05-22 | 2013-12-10 | Microsoft Corporation | Composite video generation |
| JP5396162B2 (en) * | 2009-06-02 | 2014-01-22 | 富士フイルム株式会社 | Image forming apparatus, program, and method |
| US8458485B2 (en) | 2009-06-17 | 2013-06-04 | Microsoft Corporation | Image-based unlock functionality on a computing device |
| KR101589500B1 (en) * | 2009-06-25 | 2016-01-28 | 삼성전자주식회사 | Photographing apparatus and photographing method |
| US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
| US20110025830A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
| US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
| US8508580B2 (en) * | 2009-07-31 | 2013-08-13 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene |
| US8947502B2 (en) | 2011-04-06 | 2015-02-03 | Qualcomm Technologies, Inc. | In camera implementation of selecting and stitching frames for panoramic imagery |
| WO2011038236A2 (en) | 2009-09-25 | 2011-03-31 | Ortho Kinematics, Inc. | Systems and devices for an integrated imaging system with real-time feedback loops and methods therefor |
| EP2483767B1 (en) | 2009-10-01 | 2019-04-03 | Nokia Technologies Oy | Method relating to digital images |
| CN103700122B (en) * | 2009-12-25 | 2017-06-23 | 乐天株式会社 | Video generation device and image generating method |
| KR101828096B1 (en) | 2010-01-29 | 2018-02-09 | 톰슨 라이센싱 | Block-based interleaving |
| SE534551C2 (en) * | 2010-02-15 | 2011-10-04 | Scalado Ab | Digital image manipulation including identification of a target area in a target image and seamless replacement of image information from a source image |
| US8588551B2 (en) * | 2010-03-01 | 2013-11-19 | Microsoft Corp. | Multi-image sharpening and denoising using lucky imaging |
| US8620093B2 (en) * | 2010-03-15 | 2013-12-31 | The United States Of America As Represented By The Secretary Of The Army | Method and system for image registration and change detection |
| US8411970B2 (en) | 2010-03-16 | 2013-04-02 | Pixia Corp. | Method and system for determining statistical data for image pixels having a higher bit depth per band |
| US9344701B2 (en) | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
| JP5595188B2 (en) * | 2010-08-31 | 2014-09-24 | キヤノン株式会社 | Image processing apparatus and method |
| US9594960B2 (en) | 2010-09-14 | 2017-03-14 | Microsoft Technology Licensing, Llc | Visualizing video within existing still images |
| US9407876B1 (en) | 2010-09-14 | 2016-08-02 | Pixia Corp. | Method and system for encoding and decoding multiple wide-area surveillance area-of-interest video codestreams |
| US8532383B1 (en) | 2010-09-16 | 2013-09-10 | Pixia Corp. | Method of processing a viewport within large format imagery |
| US9398211B2 (en) * | 2010-09-23 | 2016-07-19 | Intel Corporation | Multi-device alignment for collaborative media capture |
| US8422782B1 (en) | 2010-09-30 | 2013-04-16 | A9.Com, Inc. | Contour detection and image classification |
| US8990199B1 (en) | 2010-09-30 | 2015-03-24 | Amazon Technologies, Inc. | Content search with category-aware visual similarity |
| US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
| US8861890B2 (en) | 2010-11-24 | 2014-10-14 | Douglas Alan Lefler | System and method for assembling and displaying individual images as a continuous image |
| CA2819257C (en) | 2010-12-14 | 2019-09-24 | Hologic, Inc. | System and method for fusing three dimensional image data from a plurality of different imaging systems for use in diagnostic imaging |
| US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
| US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
| WO2012126500A1 (en) * | 2011-03-18 | 2012-09-27 | C3 Technologies Ab | 3d streets |
| US8717387B1 (en) | 2011-04-04 | 2014-05-06 | Google Inc. | Correction of misaligned map data from different sources |
| US20120265858A1 (en) * | 2011-04-12 | 2012-10-18 | Jorg-Ulrich Mohnen | Streaming portions of a quilted graphic 2d image representation for rendering into a digital asset |
| US9762794B2 (en) | 2011-05-17 | 2017-09-12 | Apple Inc. | Positional sensor-assisted perspective correction for panoramic photography |
| AU2011202415B1 (en) | 2011-05-24 | 2012-04-12 | Microsoft Technology Licensing, Llc | Picture gesture authentication |
| SE1150505A1 (en) | 2011-05-31 | 2012-12-01 | Mobile Imaging In Sweden Ab | Method and apparatus for taking pictures |
| US9247133B2 (en) | 2011-06-01 | 2016-01-26 | Apple Inc. | Image registration using sliding registration windows |
| US9007428B2 (en) * | 2011-06-01 | 2015-04-14 | Apple Inc. | Motion-based image stitching |
| US9160914B2 (en) * | 2011-06-28 | 2015-10-13 | Inview Technology Corporation | User control of the visual performance of a compressive imaging system |
| CN103765473B (en) | 2011-07-15 | 2017-12-05 | 瑞典移动影像股份公司 | The method and device of the digital image representation of the adjustment of view are provided |
| JP6112624B2 (en) * | 2011-08-02 | 2017-04-12 | ビューズアイキュー インコーポレイテッドViewsIQ Inc. | Apparatus and method for digital microscope imaging |
| US20130097194A1 (en) * | 2011-08-05 | 2013-04-18 | New York University | Apparatus, method, and computer-accessible medium for displaying visual information |
| JP2013070212A (en) * | 2011-09-22 | 2013-04-18 | Fuji Xerox Co Ltd | Image processor and image processing program |
| TW201316184A (en) * | 2011-10-14 | 2013-04-16 | Kdan Mobile Software Ltd | Computer program product for electronic device blocks retrieval and paste |
| US20130106990A1 (en) | 2011-11-01 | 2013-05-02 | Microsoft Corporation | Planar panorama imagery generation |
| CN103946838B (en) * | 2011-11-24 | 2017-10-24 | 微软技术许可有限责任公司 | Interactive Multimodal Image Search |
| US8200020B1 (en) | 2011-11-28 | 2012-06-12 | Google Inc. | Robust image alignment using block sums |
| US9406153B2 (en) | 2011-12-14 | 2016-08-02 | Microsoft Technology Licensing, Llc | Point of interest (POI) data positioning in image |
| US9324184B2 (en) | 2011-12-14 | 2016-04-26 | Microsoft Technology Licensing, Llc | Image three-dimensional (3D) modeling |
| US8995788B2 (en) * | 2011-12-14 | 2015-03-31 | Microsoft Technology Licensing, Llc | Source imagery selection for planar panorama comprising curve |
| US10008021B2 (en) | 2011-12-14 | 2018-06-26 | Microsoft Technology Licensing, Llc | Parallax compensation |
| US9165187B2 (en) | 2012-01-12 | 2015-10-20 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
| US11321772B2 (en) | 2012-01-12 | 2022-05-03 | Kofax, Inc. | Systems and methods for identification document processing and business workflow integration |
| US8824794B1 (en) * | 2012-01-23 | 2014-09-02 | Google Inc. | Graduated color correction of digital terrain assets across different levels of detail |
| DE102012101242A1 (en) * | 2012-02-16 | 2013-08-22 | Hseb Dresden Gmbh | inspection procedures |
| US10306140B2 (en) | 2012-06-06 | 2019-05-28 | Apple Inc. | Motion adaptive image slice selection |
| US9098922B2 (en) * | 2012-06-06 | 2015-08-04 | Apple Inc. | Adaptive image blending operations |
| US20140025456A1 (en) * | 2012-07-18 | 2014-01-23 | Rosee R. REESE/ROYCE | Method of Fundraising Through a Collaborative Creation of Artwork with Prize-Winning Incentives |
| US20140153828A1 (en) * | 2012-07-20 | 2014-06-05 | Stephan Keszler | Method of creating a photographic mosaic |
| US8446481B1 (en) | 2012-09-11 | 2013-05-21 | Google Inc. | Interleaved capture for high dynamic range image acquisition and synthesis |
| CN107256532B (en) * | 2012-10-24 | 2020-09-18 | 株式会社摩如富 | Image processing apparatus, image processing method, and recording medium |
| US9147275B1 (en) | 2012-11-19 | 2015-09-29 | A9.Com, Inc. | Approaches to text editing |
| US9043349B1 (en) | 2012-11-29 | 2015-05-26 | A9.Com, Inc. | Image-based character recognition |
| US9380222B2 (en) | 2012-12-04 | 2016-06-28 | Symbol Technologies, Llc | Transmission of images for inventory monitoring |
| US9087391B2 (en) | 2012-12-13 | 2015-07-21 | Google Inc. | Determining an image capture payload burst structure |
| US8866927B2 (en) | 2012-12-13 | 2014-10-21 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
| US8866928B2 (en) | 2012-12-18 | 2014-10-21 | Google Inc. | Determining exposure times using split paxels |
| US9247152B2 (en) * | 2012-12-20 | 2016-01-26 | Google Inc. | Determining image alignment failure |
| US8995784B2 (en) | 2013-01-17 | 2015-03-31 | Google Inc. | Structure descriptors for image processing |
| US9342930B1 (en) | 2013-01-25 | 2016-05-17 | A9.Com, Inc. | Information aggregation for recognized locations |
| US9491366B2 (en) * | 2013-02-01 | 2016-11-08 | Htc Corporation | Electronic device and image composition method thereof |
| US9686537B2 (en) | 2013-02-05 | 2017-06-20 | Google Inc. | Noise models for image processing |
| US9241128B2 (en) | 2013-02-14 | 2016-01-19 | Warner Bros. Entertainment Inc. | Video conversion technology |
| US10127636B2 (en) | 2013-09-27 | 2018-11-13 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
| US11620733B2 (en) | 2013-03-13 | 2023-04-04 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
| US10783615B2 (en) | 2013-03-13 | 2020-09-22 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
| US9042674B2 (en) * | 2013-03-15 | 2015-05-26 | Digitalglobe, Inc. | Automated geospatial image mosaic generation |
| US20140300686A1 (en) * | 2013-03-15 | 2014-10-09 | Tourwrist, Inc. | Systems and methods for tracking camera orientation and mapping frames onto a panoramic canvas |
| US9633460B2 (en) * | 2013-03-15 | 2017-04-25 | Cyberlink Corp. | Systems and methods for seamless patch matching |
| US9117134B1 (en) | 2013-03-19 | 2015-08-25 | Google Inc. | Image merging with blending |
| US9066017B2 (en) | 2013-03-25 | 2015-06-23 | Google Inc. | Viewfinder display based on metering images |
| US9836875B2 (en) * | 2013-04-26 | 2017-12-05 | Flipboard, Inc. | Viewing angle image manipulation based on device rotation |
| US9131201B1 (en) | 2013-05-24 | 2015-09-08 | Google Inc. | Color correcting virtual long exposures with true long exposures |
| US9077913B2 (en) | 2013-05-24 | 2015-07-07 | Google Inc. | Simulating high dynamic range imaging with virtual long-exposure images |
| US9832378B2 (en) | 2013-06-06 | 2017-11-28 | Apple Inc. | Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure |
| DE102013212495A1 (en) * | 2013-06-27 | 2014-12-31 | Robert Bosch Gmbh | Method and device for inspecting a contoured surface, in particular the underbody of a motor vehicle |
| US20150062287A1 (en) * | 2013-08-27 | 2015-03-05 | Google Inc. | Integrating video with panorama |
| US10298898B2 (en) | 2013-08-31 | 2019-05-21 | Ml Netherlands C.V. | User feedback for real-time checking and improving quality of scanned image |
| US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
| CN105830091A (en) * | 2013-11-15 | 2016-08-03 | 柯法克斯公司 | Systems and methods for generating composite images of long documents using mobile video data |
| US9424598B1 (en) | 2013-12-02 | 2016-08-23 | A9.Com, Inc. | Visual search in a controlled shopping environment |
| EP3089101A1 (en) | 2013-12-03 | 2016-11-02 | Dacuda AG | User feedback for real-time checking and improving quality of scanned image |
| US10410321B2 (en) | 2014-01-07 | 2019-09-10 | MN Netherlands C.V. | Dynamic updating of a composite image |
| EP3748953B1 (en) | 2014-01-07 | 2024-04-17 | ML Netherlands C.V. | Adaptive camera control for reducing motion blur during real-time image capture |
| US9554060B2 (en) | 2014-01-30 | 2017-01-24 | Google Inc. | Zoom images with panoramic image capture |
| US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
| US9367895B2 (en) | 2014-03-19 | 2016-06-14 | Digitalglobe, Inc. | Automated sliver removal in orthomosaic generation |
| EP3143596B1 (en) | 2014-05-12 | 2020-04-08 | ML Netherlands C.V. | Method and apparatus for scanning and printing a 3d object |
| JP2015225476A (en) | 2014-05-27 | 2015-12-14 | 富士ゼロックス株式会社 | Image processing device and program |
| US20170055814A1 (en) * | 2014-06-01 | 2017-03-02 | Capsovision ,Inc. | Reconstruction of Images from an in Vivo Multi-Camera Capsule with Confidence Matching |
| US9536161B1 (en) | 2014-06-17 | 2017-01-03 | Amazon Technologies, Inc. | Visual and audio recognition for scene change events |
| US9396537B2 (en) * | 2014-09-09 | 2016-07-19 | EyeVerify, Inc. | Systems and methods for liveness analysis |
| WO2016044624A1 (en) * | 2014-09-17 | 2016-03-24 | Taris Biomedical Llc | Methods and systems for diagnostic mapping of bladder |
| US9613428B2 (en) | 2014-11-07 | 2017-04-04 | Fingerprint Cards Ab | Fingerprint authentication using stitch and cut |
| SE1451336A1 (en) * | 2014-11-07 | 2016-05-08 | Fingerprint Cards Ab | Enrolling templates for biometric authentication |
| JP6450589B2 (en) * | 2014-12-26 | 2019-01-09 | 株式会社モルフォ | Image generating apparatus, electronic device, image generating method, and program |
| US9626589B1 (en) * | 2015-01-19 | 2017-04-18 | Ricoh Co., Ltd. | Preview image acquisition user interface for linear panoramic image stitching |
| US9594980B1 (en) * | 2015-01-19 | 2017-03-14 | Ricoh Co., Ltd. | Image acquisition user interface for linear panoramic image stitching |
| US9451873B1 (en) * | 2015-03-06 | 2016-09-27 | Align Technology, Inc. | Automatic selection and locking of intraoral images |
| US10055672B2 (en) | 2015-03-11 | 2018-08-21 | Microsoft Technology Licensing, Llc | Methods and systems for low-energy image classification |
| US10268886B2 (en) | 2015-03-11 | 2019-04-23 | Microsoft Technology Licensing, Llc | Context-awareness through biased on-device image classifiers |
| US10217257B1 (en) * | 2015-03-17 | 2019-02-26 | Amazon Technologies, Inc. | Process for contextualizing continuous images |
| US9531952B2 (en) * | 2015-03-27 | 2016-12-27 | Google Inc. | Expanding the field of view of photograph |
| JP6394462B2 (en) * | 2015-03-30 | 2018-09-26 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| KR102328020B1 (en) * | 2015-04-03 | 2021-11-17 | 한국전자통신연구원 | System and method for displaying panorama image using single look-up table |
| JP6433844B2 (en) * | 2015-04-09 | 2018-12-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus, relay apparatus, information processing system, and software update method |
| US9336582B1 (en) | 2015-04-17 | 2016-05-10 | Google Inc. | Convolutional color correction |
| US9852348B2 (en) * | 2015-04-17 | 2017-12-26 | Google Llc | Document scanner |
| US9794540B2 (en) | 2015-04-17 | 2017-10-17 | Google Inc. | Hardware-based convolutional color correction in digital images |
| US9736366B1 (en) | 2015-05-23 | 2017-08-15 | Google Inc. | Tile-based digital image correspondence |
| US9342873B1 (en) | 2015-05-23 | 2016-05-17 | Google Inc. | Tile-based optical flow |
| US20160354161A1 (en) | 2015-06-05 | 2016-12-08 | Ortho Kinematics, Inc. | Methods for data processing for intra-operative navigation systems |
| US9569874B2 (en) * | 2015-06-05 | 2017-02-14 | International Business Machines Corporation | System and method for perspective preserving stitching and summarizing views |
| US10467465B2 (en) | 2015-07-20 | 2019-11-05 | Kofax, Inc. | Range and/or polarity-based thresholding for improved data extraction |
| WO2017024175A1 (en) * | 2015-08-06 | 2017-02-09 | Digitalglobe, Inc. | Choreographing automated and manual processes in support of mosaic generation |
| US11202680B2 (en) | 2015-08-14 | 2021-12-21 | Intuitive Surgical Operations, Inc. | Systems and methods of registration for image-guided surgery |
| EP3795061B1 (en) | 2015-08-14 | 2025-12-03 | Intuitive Surgical Operations, Inc. | Systems and methods of registration for image-guided surgery |
| US10484601B2 (en) * | 2015-08-31 | 2019-11-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| CA2995857C (en) | 2015-11-05 | 2019-02-12 | Google Llc | Edge-aware bilateral image processing |
| US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
| CN109313698B (en) | 2016-05-27 | 2022-08-30 | 霍罗吉克公司 | Simultaneous surface and internal tumor detection |
| US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
| US10497094B2 (en) * | 2016-12-28 | 2019-12-03 | Nokia Technologies Oy | Method and apparatus for multi-band blending of a seam in an image derived from multiple cameras |
| WO2018197959A1 (en) * | 2017-04-27 | 2018-11-01 | King Abdullah University Of Science And Technology | Transmission electron microscope sample alignment system and method |
| US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
| US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
| US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
| US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
| US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
| WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
| US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
| US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
| CN110603533A (en) | 2017-05-01 | 2019-12-20 | 讯宝科技有限责任公司 | Method and apparatus for object state detection |
| US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
| JP2019012360A (en) * | 2017-06-29 | 2019-01-24 | キヤノン株式会社 | Information processing apparatus, program, and information processing method |
| JP6887909B2 (en) * | 2017-08-01 | 2021-06-16 | 株式会社東芝 | Image processing device |
| JPWO2019044408A1 (en) * | 2017-08-31 | 2020-02-27 | 富士フイルム株式会社 | Image processing apparatus, method and program |
| US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
| US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
| EP3619648A1 (en) | 2017-10-16 | 2020-03-11 | HP Indigo B.V. | Image processing apparatus |
| JP2019097050A (en) * | 2017-11-24 | 2019-06-20 | 京セラドキュメントソリューションズ株式会社 | Image reading device and image reading program |
| US11062176B2 (en) | 2017-11-30 | 2021-07-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
| US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
| US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
| US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
| US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
| US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
| US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
| US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
| US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
| US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
| US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
| US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
| US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
| US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
| US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
| CA3028708C (en) | 2018-12-28 | 2025-12-09 | Zebra Technologies Corporation | Method, system and apparatus for dynamic loop closure in mapping trajectories |
| US10986308B2 (en) | 2019-03-20 | 2021-04-20 | Adobe Inc. | Intelligent video reframing |
| US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
| US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
| US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
| US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
| US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
| US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
| US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
| US11883206B2 (en) | 2019-07-29 | 2024-01-30 | Hologic, Inc. | Personalized breast imaging system |
| CN110853058B (en) * | 2019-11-12 | 2023-01-03 | 电子科技大学 | High-resolution remote sensing image road extraction method based on visual saliency detection |
| US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
| US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
| US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
| CN113628096A (en) * | 2020-05-07 | 2021-11-09 | 杭州海康威视数字技术股份有限公司 | Image processing method, device and equipment |
| EP4150519A4 (en) | 2020-05-11 | 2024-06-26 | Magic Leap, Inc. | COMPUTATIONALLY EFFICIENT METHOD FOR CALCULATION OF A COMPOSITE REPRESENTATION OF A 3D ENVIRONMENT |
| WO2021240545A1 (en) * | 2020-05-26 | 2021-12-02 | Adarsh Natarajan | A method and system for whole slide imaging with low computational complexity |
| US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
| US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
| US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
| US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
| US20220164951A1 (en) | 2020-11-20 | 2022-05-26 | Hologic, Inc. | Systems and methods for using ai to identify regions of interest in medical images |
| US11948315B2 (en) * | 2020-12-31 | 2024-04-02 | Nvidia Corporation | Image composition in multiview automotive and robotics systems |
| RU2757802C1 (en) * | 2021-01-29 | 2021-10-21 | Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") | Video surveillance system |
| TWI843044B (en) | 2021-02-26 | 2024-05-21 | 元太科技工業股份有限公司 | Display device and image processing method |
| US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
| EP4116925B1 (en) * | 2021-07-09 | 2025-02-26 | See Through S.r.l. | Image processing method to generate a panoramic image |
| CN113810628B (en) * | 2021-09-18 | 2023-07-21 | 南京巨鲨显示科技有限公司 | Low-power-consumption video splicer and method |
| CN114092592B (en) * | 2022-01-20 | 2022-04-01 | 腾讯科技(深圳)有限公司 | Mosaic image generation method and related device |
| US11954775B2 (en) | 2022-02-23 | 2024-04-09 | International Business Machines Corporation | Artboard element positioning in a series of computer-based artboards |
| CN119295314B (en) * | 2024-12-11 | 2025-02-25 | 云南省地矿测绘院有限公司 | Image mosaic method based on PostGIS |
| US12474718B1 (en) * | 2025-05-07 | 2025-11-18 | Copart, Inc. | Undercarriage imaging rover |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04329484A (en) * | 1991-05-01 | 1992-11-18 | Matsushita Electric Ind Co Ltd | Image synthesizer |
| JPH05143713A (en) * | 1991-04-30 | 1993-06-11 | General Electric Co <Ge> | Method for generating composite image |
| WO1993023823A1 (en) * | 1992-05-15 | 1993-11-25 | David Sarnoff Research Center, Inc. | Method for fusing images and apparatus therefor |
| WO1996015508A1 (en) * | 1994-11-14 | 1996-05-23 | David Sarnoff Research Center, Inc. | Mosaic based image processing system and method for processing images |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4758892A (en) * | 1984-04-27 | 1988-07-19 | Ampex Corporation | System for producing a video combine from multiple video images |
| US4797942A (en) * | 1987-03-02 | 1989-01-10 | General Electric | Pyramid processor for building large-area, high-resolution image by parts |
| JPH0766445B2 (en) * | 1988-09-09 | 1995-07-19 | 工業技術院長 | Image processing method |
| GB9001468D0 (en) * | 1990-01-23 | 1990-03-21 | Sarnoff David Res Center | Computing multiple motions within an image region |
| FR2661061B1 (en) * | 1990-04-11 | 1992-08-07 | Multi Media Tech | METHOD AND DEVICE FOR MODIFYING IMAGE AREA. |
| ES2136603T3 (en) * | 1991-07-19 | 1999-12-01 | Princeton Video Image Inc | TELEVISION PRESENTATIONS WITH INSERTED, SELECTED SIGNS. |
| GB9119964D0 (en) * | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
| US5394520A (en) * | 1991-09-26 | 1995-02-28 | Hughes Aircraft Company | Imaging apparatus for providing a composite digital representation of a scene within a field of regard |
| US5259040A (en) * | 1991-10-04 | 1993-11-02 | David Sarnoff Research Center, Inc. | Method for determining sensor motion and scene structure and image processing system therefor |
| US5657402A (en) * | 1991-11-01 | 1997-08-12 | Massachusetts Institute Of Technology | Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method |
| US5515181A (en) * | 1992-03-06 | 1996-05-07 | Fuji Xerox Co., Ltd. | Image reading apparatus providing high quality images through synthesis of segmented image data |
-
1997
- 1997-07-16 US US08/896,887 patent/US6075905A/en not_active Expired - Lifetime
- 1997-07-17 ES ES97938016T patent/ES2258795T3/en not_active Expired - Lifetime
- 1997-07-17 CA CA002261128A patent/CA2261128A1/en not_active Abandoned
- 1997-07-17 JP JP50633998A patent/JP2002514359A/en not_active Ceased
- 1997-07-17 EP EP97938016A patent/EP0979487B1/en not_active Expired - Lifetime
- 1997-07-17 DE DE69735488T patent/DE69735488T2/en not_active Expired - Fee Related
- 1997-07-17 WO PCT/US1997/012862 patent/WO1998002844A1/en not_active Ceased
-
1999
- 1999-01-15 KR KR1019997000262A patent/KR20000023784A/en not_active Withdrawn
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05143713A (en) * | 1991-04-30 | 1993-06-11 | General Electric Co <Ge> | Method for generating composite image |
| JPH04329484A (en) * | 1991-05-01 | 1992-11-18 | Matsushita Electric Ind Co Ltd | Image synthesizer |
| WO1993023823A1 (en) * | 1992-05-15 | 1993-11-25 | David Sarnoff Research Center, Inc. | Method for fusing images and apparatus therefor |
| WO1996015508A1 (en) * | 1994-11-14 | 1996-05-23 | David Sarnoff Research Center, Inc. | Mosaic based image processing system and method for processing images |
Non-Patent Citations (1)
| Title |
|---|
| PETER J. BURT, ET AL.: ""Enhanced Image Capture Through Fusion"", IEEE CNF, JPN7007000296, 11 May 1993 (1993-05-11), US, pages 173 - 182, ISSN: 0000910230 * |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003316348A (en) * | 2002-04-25 | 2003-11-07 | Sony Corp | Image processing apparatus, image processing method, and image processing program |
| US8643788B2 (en) | 2002-04-25 | 2014-02-04 | Sony Corporation | Image processing apparatus, image processing method, and image processing program |
| JP2011129137A (en) * | 2004-03-31 | 2011-06-30 | Fuji Xerox Co Ltd | Method for generating highly condensed visual summary of image region |
| JP2008077666A (en) * | 2006-09-22 | 2008-04-03 | Samsung Electronics Co Ltd | Image processing apparatus and method |
| JP2008117235A (en) * | 2006-11-06 | 2008-05-22 | Sony Corp | Image processing apparatus, camera apparatus, image processing method, and program |
| US8699820B2 (en) | 2006-11-06 | 2014-04-15 | Sony Corporation | Image processing apparatus, camera apparatus, image processing method, and program |
| JP2011525009A (en) * | 2008-05-30 | 2011-09-08 | ジーイー・ヘルスケア・バイオサイエンス・コーポレイション | System and method for detecting and removing one or more defocused images or low contrast to noise ratio images |
| US10198617B2 (en) | 2016-05-13 | 2019-02-05 | Olympus Corporation | Image-acquisition apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| ES2258795T3 (en) | 2006-09-01 |
| DE69735488T2 (en) | 2006-11-23 |
| EP0979487A4 (en) | 2000-07-26 |
| US6075905A (en) | 2000-06-13 |
| CA2261128A1 (en) | 1998-01-22 |
| KR20000023784A (en) | 2000-04-25 |
| WO1998002844A1 (en) | 1998-01-22 |
| EP0979487B1 (en) | 2006-03-15 |
| DE69735488D1 (en) | 2006-05-11 |
| EP0979487A1 (en) | 2000-02-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2002514359A (en) | Method and apparatus for creating a mosaic image | |
| WO1998002844A9 (en) | Method and apparatus for mosaic image construction | |
| US7889948B2 (en) | Image stitching using partially overlapping views of a scene | |
| US7006709B2 (en) | System and method deghosting mosaics using multiperspective plane sweep | |
| US7657060B2 (en) | Stylization of video | |
| KR101194481B1 (en) | Adjusting digital image exposure and tone scale | |
| KR100306948B1 (en) | Mosaic based image processing system and method for processing images | |
| US7477777B2 (en) | Automatic compositing of 3D objects in a still frame or series of frames | |
| RU2368006C1 (en) | Method and system for adaptive reformatting of digital images | |
| EP2130175B1 (en) | Edge mapping incorporating panchromatic pixels | |
| Hasinoff et al. | Boundary matting for view synthesis | |
| US20070121094A1 (en) | Detecting objects of interest in digital images | |
| US20070126876A1 (en) | Locating digital image planar surfaces | |
| Pohl et al. | Semi-Automatic 2D to 3D Video Conversion | |
| Liu | Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications | |
| Yadav | Color Demosaicking in Digitallmage Using Nonlocal Adaptive Thresholding and Local Directional Interpolation | |
| Summers-Stay | Graphcut Texture Synthesis for Single-Image Superresolution | |
| Zraqou et al. | Enhanced 3D perception using Super-resolution and saturation control techniques for solar images | |
| Li | Extensor-Based image and video interpolation and inpainting | |
| Bae | Analysis and transfer of photographic viewpoint and appearance | |
| Rittler | Depth-guided disocclusion inpainting for temporal consistent virtual view synthesis | |
| Berlakovich | Digital Compositing | |
| Peter | Tomorrow’s Digital Photography | |
| Borikar | Fast Algorithms For Fragment Based Completion In Images Of Natural Scenes |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040512 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071023 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080115 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080225 |
|
| A313 | Final decision of rejection without a dissenting response from the applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A313 Effective date: 20080617 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080729 |