JP2014207110A - Observation apparatus and observation method - Google Patents
Observation apparatus and observation method Download PDFInfo
- Publication number
- JP2014207110A JP2014207110A JP2013083478A JP2013083478A JP2014207110A JP 2014207110 A JP2014207110 A JP 2014207110A JP 2013083478 A JP2013083478 A JP 2013083478A JP 2013083478 A JP2013083478 A JP 2013083478A JP 2014207110 A JP2014207110 A JP 2014207110A
- Authority
- JP
- Japan
- Prior art keywords
- image
- roi
- observation target
- region
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70605—Workpiece metrology
- G03F7/70616—Monitoring the printed patterns
- G03F7/7065—Defects, e.g. optical inspection of patterned layer for defects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
【課題】荷電粒子顕微鏡により撮像した複数枚の画像に対して適切な統合処理を行うことにより,見た目な良好な統合画像を生成して表示する。【解決手段】複数枚の画像を撮像し,撮像画像に含まれる1個以上のROIを抽出・分類した後,複数枚の撮像画像を統合して表示する。統合の際,ROIの分類結果に応じて統合方法を制御する。【選択図】 図1The present invention generates and displays a good integrated image by performing appropriate integration processing on a plurality of images captured by a charged particle microscope. A plurality of images are captured, one or more ROIs included in the captured image are extracted and classified, and then the plurality of captured images are integrated and displayed. During integration, the integration method is controlled according to the ROI classification results. [Selection] Figure 1
Description
本発明は,観察装置および観察方法に関する。 The present invention relates to an observation apparatus and an observation method.
荷電粒子顕微鏡は,光学顕微鏡に比べて分解能が非常に高く,被観察対象の微細な構造を鮮明に観察するために広く利用されている。荷電粒子顕微鏡では,荷電粒子ビームを対象試料に照射し,対象試料から放出される,または対象試料を透過する粒子(照射した荷電粒子と同種または別種の荷電粒子,または電磁波,光子)を検出器にて検出することで,対象試料の拡大画像を取得する。 Charged particle microscopes have a much higher resolution than optical microscopes, and are widely used to clearly observe the fine structure of an object to be observed. A charged particle microscope irradiates a target sample with a charged particle beam, and detects the particles emitted from the target sample or transmitted through the target sample (the same kind of charged particles as the irradiated charged particles, or electromagnetic waves, photons). By detecting at, an enlarged image of the target sample is acquired.
特に,半導体製造プロセスにおいては,半導体ウェハの検査,パターン寸法の計測,パターン形状の計測などの用途として,走査型電子顕微鏡(Scanning Electron Microscope)や走査型イオン顕微鏡(Scanning Ion Microscope),走査型透過電子顕微鏡(Scanning Transmission Electron Microscope)などの荷電粒子顕微鏡が用いられている。これらの用途においては,撮像した画像を用いて,半導体パターンや欠陥の観察,欠陥の検出および発生要因解析,パターンの寸法計測などが行われる。 In particular, in semiconductor manufacturing processes, applications such as semiconductor wafer inspection, pattern dimension measurement, and pattern shape measurement include scanning electron microscopes, scanning ion microscopes, and scanning transmission. A charged particle microscope such as an electron microscope (Scanning Transmission Electron Microscope) is used. In these applications, the captured images are used to observe semiconductor patterns and defects, detect defects and analyze the causes of the defects, and measure the dimensions of the patterns.
荷電粒子顕微鏡においては観察や解析等を容易に行うことができる画像を提供することが重要であり,そのためには観察・解析等の対象となる部位(以下,ROI:Region Of Interest)が見やすい画像を表示する必要がある。ROIの例としては,半導体上の欠陥が映っている領域や,観察をしたいパターンが映っている領域などが挙げられる。荷電粒子顕微鏡で撮像した画像には,複数のROIが含まれる場合もある。ROIを見やすくするために,撮像条件,撮像対象,撮像位置などを変えた複数枚の撮像画像を取得する場合も多い。また,検出器には,2次荷電粒子検出器や後方散乱粒子検出器,特定の粒子や光のみを検出する検出器,エネルギーやスピン方向などが特定の範囲内にある粒子を検出する検出器などの複数の種類があり,個々の検出器によって得られる情報が異なる。また検出器の配置位置によっても得られる情報が異なるため,同種または異種の複数の検出器を備えている顕微鏡も多い。複数の検出器があれば,1回の撮像により複数枚の撮像画像を取得することができる。 In charged particle microscopes, it is important to provide images that can be easily observed and analyzed. For this purpose, images that are easy to see the region (hereinafter referred to as ROI: Region Of Interest) to be observed and analyzed Need to be displayed. Examples of ROI include areas where defects on the semiconductor are shown, and areas where the pattern to be observed is shown. An image captured with a charged particle microscope may include multiple ROIs. In order to make the ROI easier to see, there are many cases where a plurality of captured images with different imaging conditions, imaging targets, imaging positions, etc. are acquired. The detector also includes secondary charged particle detectors, backscattered particle detectors, detectors that detect only specific particles and light, and detectors that detect particles whose energy or spin direction is within a specific range. There are several types, and the information obtained by each detector is different. In addition, since the information obtained varies depending on the position of the detector, many microscopes have a plurality of detectors of the same type or different types. If there are a plurality of detectors, a plurality of captured images can be acquired by one imaging.
視認性が高い画像を得るために,複数の撮像画像を統合する方法が提案されている。例えば特許文献1には,「荷電粒子源より放出された荷電粒子線の焦点を変更する手段と、前記試料の荷電粒子線の照射個所で得られる荷電粒子を検出する荷電粒子検出器と、当該荷電粒子検出器から出力される信号の内、前記荷電粒子線が合焦した部分の信号に基づいて前記荷電粒子線源方向から見た試料の2次元像を合成する手段を備えたことを特徴とする荷電粒子線装置」(要約書)が開示されている。
また,特許文献2には,「異なる撮像条件下で試料を撮像して該試料の複数の画像を取得し,この取得した複数の画像についてそれぞれの画像の劣化関数を生成し、取得した複数の画像と生成したそれぞれの画像に対応する劣化関数とを用いて分解能を向上させた画像を生成し、この分解能を向上させた画像を処理」する方法(要約書)が開示されている。
In order to obtain an image with high visibility, a method of integrating a plurality of captured images has been proposed. For example,
また,ROIの視認性を向上するために撮像画像を統合する方法も提案されている。特許文献3には,「既知の欠陥モードと正常部については照合結果画像74の比重を高く、そうでない場合には検出画像71の比重を高くでき、より自然なレビュー画像82を生成する」(段落0043)パターン検査装置や、「合成対象とする画像の特徴点同士の対応関係を維持するように合成する技術」であるモーフィング手法により「より検出画像71の情報を反映した合成画像を実現することができる」パターン検査装置(段落0044)が開示されている。
A method for integrating captured images has also been proposed in order to improve ROI visibility.
特許文献4には、「多層レイヤにおける下層領域やホールパターンの穴底など,試料から十分な信号量が得られにくい領域に対しても高画質である画像を撮像する」ことを目的とした荷電粒子顕微鏡装置を用いた試料の画像撮像方法であって,前記荷電粒子顕微鏡装置の検出器のゲインを第一のゲイン値に設定して前記試料に対して荷電粒子ビームの走査を行い,第一の画像を取得する第一画像取得ステップと,前記検出器のゲインを前記第一のゲイン値とは異なる第二のゲイン値に設定して前記試料に対して荷電粒子ビームの走査を行い,第二の画像を取得する第二画像取得ステップと,前記第一のゲイン値と前記第二のゲイン値を用いて,前記第一の画像と前記第二の画像を合成する画像合成ステップと、を有することを特徴とする画像撮像方法」が開示されている。
しかし,対象としているROIの見え方がROI毎に大きく異なる場合では,適切な統合の方法が異なることが問題となる。特許文献3で対象としている電子線式パターン検査装置では,ROIとして欠陥のみを対象としており,また電子線式パターン検査装置では倍率の低い画像を撮像して欠陥の検出を行うため,ROIの形状等が大きく異なることはない。特許文献4では,ROIとして暗部のみを対象としている。
However, if the target ROI looks very different for each ROI, the problem is that the appropriate integration method is different. In the electron beam pattern inspection apparatus targeted in
一方,例えば,測長SEMや欠陥レビューSEM等の,欠陥を高倍率(例えば10万倍以上)で撮像して測長や観察を行う荷電粒子顕微鏡では,対象としているROIの見え方がROI毎に大きく異なる場合がある。従来の方式である重み付け加算処理やモーフィング手法による画像変形のみを用いて見やすい画像を作成できる場合もあるが,ROIによっては見た目が不自然になるなど逆に見難くなってしまう場合もある。このように,見え方が大きく異なる多様なROIを対象とする場合には,従来とは異なる統合方法が必要とされる。 On the other hand, for example, a charged particle microscope, such as a length measurement SEM or defect review SEM, that captures defects at a high magnification (for example, 100,000 times or more) and measures or observes the defect, the ROI that is targeted is visible for each ROI. May vary greatly. In some cases, it is possible to create an easy-to-see image using only the conventional method of weighted addition processing or image deformation by a morphing method, but depending on the ROI, it may be difficult to see such as unnatural appearance. In this way, when targeting a variety of ROIs that look very different, a different integration method is required.
本発明では,上記のような場合においても見た目が良好な画像を生成して表示する手段を提供する。 The present invention provides means for generating and displaying a good-looking image even in the above case.
本発明では,以下の画像表示方法および前記画像表示方法を搭載した観察装置により前記課題を解決する。 In the present invention, the above-described problem is solved by the following image display method and an observation apparatus equipped with the image display method.
本発明によれば,各々のROIが見やすい画像を提供する観察装置および観察方法を提供することができる。 According to the present invention, it is possible to provide an observation apparatus and an observation method that provide an image in which each ROI is easy to see.
本発明は,荷電粒子を試料に照射して画像を取得する走査荷電粒子顕微鏡に係り,特に視認性の高い画像を表示するための画像表示方法およびその装置を提供することにある。以下,本発明に係る実施の形態について図面を用いて説明する。 The present invention relates to a scanning charged particle microscope that acquires an image by irradiating a sample with charged particles, and provides an image display method and apparatus for displaying an image with particularly high visibility. Embodiments according to the present invention will be described below with reference to the drawings.
図1は,ROIを抽出・分類して,分類結果に基づいて複数枚の撮像画像を統合するシーケンスの一実施例図である。まず,ステップ101で,複数枚の撮像画像を取得する。次に,ステップ102で,前記撮像画像からROIを抽出し,ステップ103でROIを分類する。次に,ステップ104で,前記ROIの分類結果に基づいて,複数枚の撮像画像を統合する,すなわち,複数枚の撮像画像における同一画素またはその近傍領域の画素の情報を用いて,画素毎に明度値を求めた1枚の画像(統合画像)を生成する。最後に,ステップ105で,統合画像を表示する。
FIG. 1 is a diagram showing an example of a sequence for extracting and classifying ROI and integrating a plurality of captured images based on the classification result. First, in
対象としているROIの見え方は,ROI毎に大きく異なる場合が多い。これに対し,撮像画像に含まれるROIを分類した後,その結果に応じて統合の方法を制御することにより,各々のROIに適した方法で統合することができ,常にROIが見やすい画像を提供することが可能になる。 In many cases, the target ROI looks very different for each ROI. On the other hand, by classifying the ROI included in the captured image and then controlling the integration method according to the result, it is possible to integrate the ROI in a method suitable for each ROI and always provide an image that is easy to see the ROI. It becomes possible to do.
図2は,本発明の一実施形態である荷電粒子顕微鏡の基本構成である。荷電粒子顕微鏡は,例えば,荷電粒子画像取得装置201,入出力部221,制御部222,処理部223,記憶部224,ROI抽出部225,ROI分類部226,および画像統合部227等から構成される。荷電粒子画像取得装置201では,荷電粒子銃202から荷電粒子ビーム203を発生し,前記荷電粒子ビーム203をコンデンサレンズ204や対物レンズ205に通すことにより試料206の表面に集束する。次に,試料206から発生する粒子を検出器208で検出することにより,画像を取得する。画像は,記憶部224に保存される。検出器208は複数個備わっていても良く,さらに,電子を検出する検出器と電磁波を検出する検出器のように異なる粒子を検出する検出器であったり,エネルギーやスピン方向が特定の範囲内にある粒子のみを検出する検出器であったり,2次荷電粒子検出器と後方散乱荷電粒子検出器のように異なる性質の粒子を検出する検出器であっても良い。同じ性質の粒子を検出する検出器が異なる配置位置に複数備わっていても良い。検出器が複数個備わっている場合には,通常1回の撮像で,画像を複数枚取得することができる。撮像条件を変えて2回以上撮像をして,複数枚の画像を取得しても良い。試料206はステージ207に接しており,ステージ207を移動することにより,試料の任意の位置における画像の取得が可能である。また,ビーム偏向器209で荷電粒子ビーム203の向きを2次元的に変えることにより,荷電粒子ビームを試料上に走査することができる。
FIG. 2 shows a basic configuration of a charged particle microscope according to an embodiment of the present invention. The charged particle microscope includes, for example, a charged particle
入出力部221では,画像撮像位置や撮像条件の入力,統合後の画像の出力などを行う。制御部222では,撮像装置の制御として,荷電粒子銃202等に印加する電圧や,コンデンサレンズ204および対物レンズ205の焦点位置の調整,ステージ207の移動等を制御する。また,制御部222は,入出力部221,処理部223,記憶部224,ROI抽出部225,ROI分類部226の制御も行う。処理部223では,各種の処理,例えば,荷電粒子ビーム203の焦点を試料206の表面に合わせるために必要な自動焦点合わせに関する処理などを行う。記憶部224では,複数枚の撮像画像,統合後の画像,ROI抽出結果,ROI分類結果,各種処理パラメータ等を保存する。ROI抽出部225では,取得した複数枚の撮像画像からROIを抽出する。ROI分類部226では,抽出したROIの各々に対して分類を行う。画像統合部227では,複数枚の撮像画像を統合して1枚の統合後の画像を生成する。この際,ROIの分類結果に基づいて,統合方法を制御する。
The input /
図3は,複数枚の撮像画像を統合することの利点および課題を表す一実施例図である。統合画像303は,2個の2次荷電粒子検出器で取得した画像(2次荷電粒子像)301と302を統合して得られた画像の例である。画像301と画像302は,試料上の同一の位置を撮像して得られたものとする。これらの撮像画像は,異なる位置に配置した複数個の検出器を用いて1回のスキャンで得られた画像であっても良いし,撮像条件を変えて撮像した画像であっても良い。画像301には,欠陥311とパターン314が映っているが,欠陥311はコントラストが低い(図3において,点線で囲まれた領域はコントラストが低いことを表す)。画像302には,311と同じ欠陥が312に映っているが,そのコントラストは画像301に比べて高い。一方,314と同じパターンが315に映っており,そのコントラストは低い。これらの撮像画像を統合して,欠陥とパターンのコントラストが共に高い画像を生成したい。このためには,画像301と302を重み付け加算する方法が適している。具体的には,画像302から欠陥領域312を抽出した後,欠陥領域に対しては画像302の重みを大きくして,それ以外の領域に対しては画像301の重みを大きくして重み付け加算を行えば良い。
FIG. 3 is an example diagram showing advantages and problems of integrating a plurality of captured images. The
統合画像306は,後方散乱荷電粒子検出器で取得した陰影が付いた画像(陰影像)304と2次荷電粒子像305を統合して得られた画像の例である。画像304と画像305は,試料上の同一の位置を撮像して得られたものである。2次荷電粒子像305には,パターン322と,スクラッチ欠陥(試料表面に生じた傷)325が映っているが,スクラッチ欠陥325はコントラストが低く,視認性が悪い。これに対し,スクラッチ欠陥が明瞭に映った統合画像を生成したい。陰影像304ではスクラッチ欠陥が明瞭に見えるため,この情報を統合すれば良い。しかし,統合画像303を生成したときと同様の方法,すなわち,スクラッチ欠陥領域324を抽出して,その領域では画像304の重みを大きくし,それ以外の領域では画像305の重みを大きくした重み付け加算による統合では,適切な画像は生成できない。このような重み付け加算により求めた統合画像の例を307に示す。パターン327およびスクラッチ欠陥328は共に明瞭に見えているが,スクラッチ欠陥領域内ではパターン327が映っていないため,不自然な画像になってしまう。統合画像306のように,スクラッチ欠陥領域内にも,パターンが映っているような画像を生成するためには,単純な重み付け加算ではない統合方法を用いる必要がある。以上を鑑みると,撮像画像301,302の場合においては,重み付け加算による統合を行い,撮像画像304,305の場合においては,重み付け加算以外の統合を行うことが望ましい。本発明では,ROI(この例では欠陥領域)の種類に応じて適した統合方法を選択することにより,良好な統合画像を生成する。
The
次に,図4〜図10を用いて,図1のステップ104に相当する統合処理について説明する。ROIの種類毎に適切な統合処理が異なることについて具体例を用いて示すことで,ROIの分類結果に基づいて統合処理を制御することができれば画質が良好な画像が得られることを示す。ROIの分類方法については図13〜図15,統合処理の制御方法については図16〜図18を用いて後述する。図4〜図10では,予め,ステップ101〜103の処理である,複数枚の画像を取得して,ROIを抽出・分類する処理は施してあるものとする。
Next, an integration process corresponding to step 104 in FIG. 1 will be described with reference to FIGS. By showing using a specific example that the appropriate integration processing differs for each type of ROI, it is shown that an image with good image quality can be obtained if the integration processing can be controlled based on the ROI classification result. The ROI classification method will be described later with reference to FIGS. 13 to 15, and the integration processing control method will be described later with reference to FIGS. 16 to 18. 4 to 10, it is assumed that a process of acquiring a plurality of images and extracting and classifying ROI, which is the process of
図4は,2枚の撮像画像を重み付け加算により統合する例を示す一実施例図である。画像401および402は,図3における画像301および302と同じである。統合の際,ROI以外の領域において主に用いる画像(以下,ベース画像と呼ぶ)を定める。この例では,画像401をベース画像とする。また,この例では,欠陥412が映っている領域をROIとする。以下,ベース画像には画像の周囲を太枠で示し,またROIも同様に周囲を太枠で示す。ROIの分類結果として,例えばパターン上の異物という結果を得る。ROIは,画像401ではコントラストが低く,画像402では高い。そこで統合処理404では,まず統合比率算出処理405にて,ROIにおいて画像402の重みを大きくし,ROI以外の領域において画像401の重みを大きくするように重みを設定し,荷重和処理406により重み付け加算を行う。これにより,統合画像403を得る。
FIG. 4 is a diagram illustrating an example in which two captured images are integrated by weighted addition.
なお,統合画像は複数枚あっても良い。例えば,画像401をベースとして生成した統合画像と,画像402をベースとして生成した統合画像を出力しても良い。また,撮像画像は3枚以上あっても良い。荷重和処理406では重み付け加算を行う例を示したが,重み付け加算に限らない。例えば,2枚の画像の明度値に対してある関数f(例えば対数関数)を適用した後で重み付け加算を計算し,最後にfの逆関数を適用するような計算方法でも良い。結合後の画像は,グレースケールの画像である必要はなく,カラー画像であっても良い。例えばROIは色を付けて見やすく表示し,ROI以外の領域はグレースケール表示を行なっても良い。この場合には,統合比率算出処理405において,カラー画像を表す各成分(例えばRed,Green,Blue)についてそれぞれ重みを計算し,荷重和処理406では成分毎に重み付け加算処理を行えば良い。
There may be a plurality of integrated images. For example, an integrated image generated based on the
図5は,2枚の撮像画像を重み付け加算以外の方法により統合する例を示す一実施例図である。画像501および502は,図3における画像304および305と同じである。ベース画像は502とする。すなわち,2次荷電粒子像502に対して,陰影像501のスクラッチ欠陥512を統合する。ROIの分類結果として,例えば凹凸欠陥といった結果を得る。統合処理509では,まず陰影像501から,パターン511等に関する情報を取り除きスクラッチ欠陥512を表す凹凸情報のみを抽出する。この抽出を行うため,まず欠陥がない画像を推定する処理503を行い,画像504のようなパターン513の情報を抽出する。この処理では,例えば2次荷電粒子像502を用いてパターン情報を抽出しても良いし,欠陥を含まない他の場所を撮像した画像や,設計データとの比較を用いて抽出しても良い。ROI内の画素を削除した後,インペインティングなどの技術を用いて推定を行なっても良い。次に,ROI差分情報を抽出する処理505にて,陰影像501と画像504の差分を計算することにより,514のようにスクラッチ欠陥を表す凹凸情報のみが映った画像506を得る。その後,荷重和処理507により,2次荷電粒子像502と画像506との重み付け加算を行うことで,統合画像508を生成する。画像508では,パターン515の上に,ROIの凹凸情報516のみが重畳されており,自然な統合ができている。図4の例で示した重み付け加算による統合方法と,図5の例で示した統合方法を使い分けるためには,欠陥412のように不透明な欠陥か,欠陥512のように欠陥の下側にあるパターンが映った透明な欠陥かを判別できるような分類を行えば良い。なお,荷重和処理507は,図4における統合比率算出処理405と荷重和処理406を併せた処理に対応している。以降,説明の簡略化のために荷重和処理には統合比率算出処理が含まれているものとする。
FIG. 5 is a diagram illustrating an example in which two captured images are integrated by a method other than weighted addition.
図5の画像501および502は,例えばエネルギーが高い粒子および低い粒子を検出して得られた画像であっても良い。検出する粒子のエネルギーが異なれば,その粒子に含まれる情報は変わるため,画像も大きく変わる場合がある。または,異なる種類の粒子を検出した画像であっても良い。
The
図6は,2枚の撮像画像を統合する,図4,図5とは別の例を示す一実施例図である。陰影像601および2次荷電粒子像602の2枚の画像を処理604により統合し,画像603を得る。ROIの分類結果として,例えば影領域にある明度が低い欠陥といった結果を得る。画像601では,パターン611が映っている。領域612はパターンの影の部分に対応しており,影ではない類似領域に比べて明度値が低い。一方,画像602では,画像601の影の領域内にあたる位置に,ROIである欠陥613が映っており,さらに欠陥の明度値は周囲の領域に比べて低い。画像602ではパターンの影は見えない。2枚の画像を統合したいが,明暗関係が反転すると一般に不自然な画像に見える。そこで,明暗関係を維持した統合を行うために,まず画像601,602の各々について明度調整処理605を行った後,荷重和処理607を行う。明度調整処理605では,画像601と602の両方の情報に基づいて,各々の画像の明度を調整する。荷重和の前に明度調整を行うことにより,画像603では,周囲の領域より明度値が低い影の部分614を残しつつ,さらに欠陥615の明度値がより低くなるように全体の明度バランスを調整する。単純な重み付け加算のみによる統合では,高いコントラストを維持したまま明暗関係を保つことは一般に不可能であるが,明度調整処理と組み合わせることにより,これを可能とする。
FIG. 6 is an example diagram showing an example different from FIGS. 4 and 5 in which two captured images are integrated. Two images of the
図20は図6における明度調整処理605の詳細を表す一実施例図である。図6と同一の画像または処理については,図6と同じ番号で示してある。以下,同一の画像や処理等を表す場合には同一の番号を振って示すものとする。グラフ2001および2002は,それぞれ画像601および602の線分ABにおける明度値である。破線2010は,説明のための補助線である。影領域2011の明度値は,その右側の領域の明度値に比べて低くなっている。また,2次荷電粒子像のROI2012の明度値も,その右側の領域の明度値に比べて低くなっている。2次荷電粒子像の領域2013の明度値は,陰影像の同じ領域の明度値に比べて高い。グラフ2003および2004は,明度調整処理605を行った後の線分ABにおける明度値である。
FIG. 20 is a diagram showing an example of the details of the
事前に行うROI分類結果により,ROIは影領域に存在する明度が低い欠陥であることがわかっている。しかし,陰影像の影領域の明度値が低いため,画像601の上にそのまま2次荷電粒子像のROIを統合しても十分なコントラストが得られない。そこで,まず明度調整処理605では,陰影像の影領域2014の明度値が高くなるように調整する。次に,2次荷電粒子像のROI周辺領域2017の明度値を,陰影像の同じ領域(すなわち影領域2014)の明度値に合わせる。また,ROI2015とその周辺領域との明度差を一定に保つために,ROI2015の明度値も低くする。さらに,荷重和処理607において不自然な結果になることを防ぐために,領域2016等の明度値を陰影像の同じ領域の明度値に合わせても良い。グラフ2005は,統合画像に対する線分ABにおける明度値である。グラフ2005が示すように,明度調整処理605を行うことにより,ROIおよびその周辺領域のコントラストを維持した上で,ROI2018の明度値がその周辺の明度値に比べて低くなるような統合画像を得ることができる。
From the results of ROI classification performed in advance, it is known that ROI is a defect with low brightness existing in the shadow area. However, since the brightness value of the shadow area of the shadow image is low, sufficient contrast cannot be obtained even if the ROI of the secondary charged particle image is integrated on the
画像の各領域の明度値は,複数の撮像画像の間で大きく異なる場合がある。例えば,異なる種類の検出器を用いた場合は,各々の検出器にて検出している粒子の種類や特徴が異なるため,明度値は一般に大きく異なる。また,検出器の配置位置によっても,各検出器に到達する粒子の個数が変化するため明度値は異なる。このような複数の撮像画像を統合する際,重み付け加算では明暗が逆転するため不自然に見える場合がある。これに対し,本発明では,明度調整を行うことによりROIとROIの周辺領域との明暗関係を保存して統合する。これにより,明暗の逆転を抑えた上での統合を可能とする。 The brightness value of each region of the image may vary greatly between the plurality of captured images. For example, when different types of detectors are used, the brightness values generally differ greatly because the types and characteristics of the particles detected by each detector are different. Also, the brightness value varies depending on the position of the detector, because the number of particles that reach each detector changes. When such a plurality of captured images are integrated, the weighted addition may reverse the brightness and may appear unnatural. On the other hand, in the present invention, the brightness relationship between ROI and the surrounding area of ROI is preserved and integrated by adjusting the brightness. As a result, integration is possible while suppressing the reversal of light and dark.
図7は,異なる形状に映った2枚の撮像画像を統合する処理の一実施例図である。画像701および702の2枚の画像を処理704により統合し,画像703を得る。被撮像物は異物を含む多層パターンである。例えば,画像701は陰影像であり,画像702は2次荷電粒子像である。ROIの分類結果として,例えば712のROIは上層領域の欠陥,713のROIは下層領域といった結果を得る。画像701では,上層パターン711および欠陥712が鮮明に映っているが,下層では十分なコントラストが得られていない。一方,画像702では,下層領域713が鮮明に映っているが,上層パターンや欠陥の視認性は悪い。陰影像では下層領域においては2次荷電粒子像に比べて十分な数の荷電粒子を検出できずコントラストが低くなる傾向があるため,下層領域は2次荷電粒子像のほうが視認性が高い場合が多い。画像701に対して,画像702の下層領域の領域を統合したい。しかし,画像701と画像702では,下層領域の幅が異なっており,画像701のほうが幅が狭い。そこで,まず画像701と画像702を用いて変形量算出処理708を行う。変形量は,画素毎または領域毎に算出する。次に,画像702に対して形状変形処理705を行い,下層領域の幅を画像701に合わせた画像707を生成する。その後,画像701と707との荷重和処理706により統合画像703を生成する。変形量算出処理708および形状変形処理705では,上層パターンと下層領域の境界のみでなく,下層領域と欠陥712の境界においても繋ぎ目が自然になるように処理を行う。なお,本実施例では画像702に対して形状変形を行なって下層領域の幅を画像701に合わせたが,画像701に対して形状変形を行なって下層領域の幅を画像702に合わせても良い。
FIG. 7 is a diagram illustrating an example of processing for integrating two captured images reflected in different shapes. Two
画像701と702の例のように,複数枚の撮像画像の間には画像歪みのため,画素毎に映っているものが異なることがある。パターンの境界部において,画像701では上層パターンの情報が支配的であり,画像702では下層領域の情報が支配的であるため,下層領域の幅が異なって見える。このため,形状を適切に変形しなければ,画像を統合した際に,その境界が不連続になるなどの不具合が発生する。このため,場合によってはROIのみでなくその周辺領域も変形する必要がある。これに対し,画像歪みのある撮像画像の場合にも自然に統合を行うことができる。
As in the examples of the
図8は,倍率の異なる2枚の撮像画像を統合する処理の一実施例図である。相対的に高い倍率で撮像した画像801に対して,処理804により,相対的に低い倍率で撮像した画像802の欠陥812を統合し,画像803を得ることを考える。まず,拡大/縮小処理805により,後段の統合において必要となるROIまたはその周辺の領域を拡大または縮小する。拡大率は,画像801と802の撮像倍率から計算できる。または,両画像に映っているもの,例えばパターン813とパターン814,または欠陥811と欠陥812のサイズの比から計算しても良い。その後,荷重和処理807により,画像801と拡大または縮小した画像806との重み付け加算を行うことで,画像801と同じ倍率の画像803を生成する。
FIG. 8 is a diagram illustrating an example of processing for integrating two captured images having different magnifications. Consider processing 804 to integrate the
本実施例では,画像801の倍率に合わせた画像803を生成したが,画像801および画像802のどちらとも異なる倍率の画像を生成しても良い。例えば,画像801よりも高い倍率を持つ画像を生成するには,画像801,802に対してそれぞれ対応する拡大率で拡大処理を行った後に,重み付け加算を行えば良い。
In the present embodiment, the
図9は,ROIおよびその周辺の領域の形状変形を行いながら統合する処理の一実施例図である。画像901はチルトさせずに撮像した画像,画像902はチルト画像である。欠陥911がパターン912の側壁部913に存在しており,画像901では欠陥が見辛い。チルト画像902では,側壁部915が画像上の広い領域に対応しており,欠陥914の視認性は画像901に比べて良い。この2枚の画像を処理904により統合して,欠陥916が明瞭に見える画像903を作成する。ROIの分類結果として,例えば側壁部にある異物といった結果を得る。画像903はチルトをさせない画像901と同様の見た目になるように,画像901をベース画像とする。統合処理904では,まず形状変形処理905および906により画像901および902の各々について形状変形を行った後,荷重和処理909を行う。画像901では側壁領域が狭すぎるため,画像902の側壁部のサイズを画像901に合わせてから重み付け加算を行うような統合方法では,欠陥914が鮮明な画像を生成することは困難である。このため,形状変形処理を画像901に対しても行い,側壁領域を広げている。画像907,908は,それぞれ,形状変形処理905,906の出力である。画像907では,画像901に対して側壁部918の領域が広がり,欠陥917のサイズも大きくなっている。ただし,画像907は画像901から画像処理により作成したものであるため,欠陥部の画質は悪い。そこで,画像908との重み付け加算により欠陥の画質を高める。形状変形処理906では,画像908の側壁部920および欠陥919の位置および領域を画像907に合わせるように形状変形を行う。なお,画像901と902では位置ずれが発生する場合も多い。このため,少なくとも片方の画像について前処理として位置ずれ補正を行なっても良い。
FIG. 9 is a diagram illustrating an example of processing for integrating ROI and its surrounding area while deforming the shape. An
チルトをさせない画像とチルト画像を統合する場合は,図8の実施例図と同様に形状を適切に変形しなければ,統合画像において繋ぎ目が不連続になるなどの不具合が発生する。これに対し,本実施例のようにROIとその周辺の領域について形状変形を行うことにより自然に統合を行うことができる。 When integrating an image that is not tilted and a tilted image, problems such as discontinuity of joints in the integrated image occur unless the shape is appropriately deformed as in the example of FIG. On the other hand, the integration can be naturally performed by deforming the shape of the ROI and the surrounding area as in this embodiment.
チルトをさせない画像とチルト画像とを統合することは,分解能の観点においても利点がある。焦点深度に比べて高さのある試料を撮像すると,全ての位置で焦点が合った撮像画像が得られなくなり,ある位置では分解能の悪い画像になってしまう。チルト画像では,試料を斜め方向から撮像するためにチルト角が大きいほど試料が高さを持つことになり,全ての位置で焦点が合った分解能の高い画像が得られにくくなる。そこで,ROIにおいてはチルト画像を用い,それ以外の領域ではチルトをさせない画像を用いるように画像を統合することにより,ROIの視認性が良好であり,かつそれ以外の領域でも分解能が高い画像を生成することができる。 Integrating an image that is not tilted and a tilted image is advantageous from the viewpoint of resolution. When a sample having a height that is higher than the depth of focus is imaged, a captured image that is in focus at all positions cannot be obtained, and an image with poor resolution is obtained at a certain position. In the tilt image, since the sample is imaged from an oblique direction, the larger the tilt angle, the higher the sample, and it becomes difficult to obtain an image with high resolution in focus at all positions. Therefore, by integrating images so that ROI uses tilted images and images that are not tilted in other regions, ROI has good visibility and high-resolution images in other regions. Can be generated.
図10は,異なる領域を撮像した2枚の画像を統合する処理の一実施例図である。画像1002は欠陥を含む領域を撮像した画像である。画像1001は画像1002と同様のパターンを含む,画像1002とは異なる領域を撮像した画像である。ROIの分類結果として,例えばパターン上の異物といった結果を得る。画像1001は,画像1002とは異なる撮像条件により取得しており,ノイズ量が相対的に少ないものとする。画像1002のROI以外の領域で見られる斑点状の模様はノイズが多く重畳していることを表す。画像1001は,例えば半導体ウェハ内の他のチップにおける撮像画像であっても良いし,同一チップにおける撮像画像であっても良い。同様の形状のパターンを複数枚撮像して加算平均を取ることによりノイズ量を低減した画像(ゴールデン画像)であっても良い。画像1001,1002を処理1004により統合して,ROIを含むノイズ量が少ない画像1003を生成する。画像1001と1002には対応するパターンが映ってはいるが,異なる領域を撮像しているために位置ずれが発生している。そこで,まず位置合わせ処理1005を行うことで画像1002の位置を画像1001に合うように補正する。その後,荷重和処理1006を行う。荷重和処理1006において,ROIでは位置合わせ後の画像1008に対して大きな重みを設定する。それ以外の領域では,画像1001および1002に対して,その画像に含まれるノイズ量に応じて適切な重みを設定することにより,画像1001よりもノイズ量を抑えた良好な画像を生成できる。例えば,画像1001および1002に対応する重みは,各々の画像に含まれるノイズの標準偏差の2乗に反比例するように設定する。
FIG. 10 is a diagram illustrating an example of processing for integrating two images obtained by imaging different areas. An
なお,画像1001は,画像1002に比べてノイズ量が同等以上であっても良い。この場合にも,ROI以外の領域では画像1001と1002の両方の情報を用いることで,よりノイズが少ない画像を得ることができる。
Note that the amount of noise in the
次に,図11,12にて,図1のステップ102に相当するROI抽出処理について述べる。 Next, an ROI extraction process corresponding to step 102 in FIG. 1 will be described with reference to FIGS.
図11は,2枚の撮像画像に含まれるROIを抽出する一実施例図である。撮像画像1101,1102には,パターンと,楕円状の細長い欠陥1111と,円状の欠陥1112が映っている。しかし,欠陥1111は画像1101のほうが鮮明に映っており,欠陥1112は画像1102のほうが鮮明に映っている。この2枚の画像に対し,ROI抽出処理1105を行う。この処理は,ROI種類特定処理1106と領域抽出処理1107からなる。ROI種類特定処理1106では,例えば,ROIを欠陥領域と下層領域であると特定する。このROI種類特定処理は,ユーザ情報,設計データ,工程情報などの情報に基づいて行なっても良い。例えば,ユーザから下層領域のみに興味があるという情報が入力された場合には,ROIは下層領域のみであるとすれば良い。また,光学画像などに基づいてROI種類特定処理を行なっても良い。撮像画像を基に,ROIの種類を特定しても良い。次に,領域抽出処理1107を行う。この処理は,例えばROIが欠陥の場合には,同様のパターンが映った別の領域を撮像した画像(参照画像)と撮像画像とを比較することにより行える。ROIが下層領域の場合には,設計データと撮像画像とを比較することや,撮像画像から明度が低い領域を抽出することにより領域抽出を行える。ROI抽出結果の例を画像1103および1104に示す。画像に含まれている二つの欠陥1121,1122について,それぞれ鮮明に映っているほうの画像で抽出する。この例のように,統合の対象とする複数の撮像画像において,ROIは複数個存在しても良いし,画像1103の欠陥1121と画像1104の欠陥1122のように撮像画像毎に異なる領域を抽出しても良い。
FIG. 11 is a diagram illustrating an example of extracting ROI included in two captured images. The captured images 1101 and 1102 show a pattern, an elliptical
図12は,ROI抽出処理を表す図11とは異なる一実施例図である。2枚の撮像画像1201および1202からROIを抽出する。抽出したいROIは,画像1201の欠陥1211および画像1202の下層領域1212であるとする。本実施例では,画像内の線分ABのみについて説明する。グラフ1203および1204は,それぞれ画像1201および1202の線分ABにおける明度値である。この情報を用いて領域抽出処理1205を行う。グラフ1203と1204を比較すると,上層領域と下層領域の間のコントラストはグラフ1203のほうが高いため,グラフ1203を用いたほうが確実に下層を抽出できる。しかし,画像1211のほうが画像1202に比べて下層領域の幅が狭い。そこで,画像1201を用いて下層を粗く抽出した後,画像1202を用いて精細な抽出を行う。グラフ1206は,線分ABにおけるROI度合いである。図11ではROI抽出結果は2値の値を持つ画像(すなわち,画素毎にROIか否かのみを表現する画像データ)であったが,図12の例ではROI度合いは0から1までの連続値をとる。ROI度合いが連続値(または細かな刻み幅の離散値)であったほうが,後段の統合処理において連続的な重みを用いた重み付け加算処理などを行うことができ,ROI境界がより自然に見えるような処理を行うことができる。
FIG. 12 is an embodiment diagram different from FIG. 11 showing the ROI extraction processing. The ROI is extracted from the two captured
図13は,図1のステップ103に相当するROI分類処理のフローを示す一実施例図である。この処理では,撮像画像のセットおよびROI度合いを入力1301として,分類結果1302を出力する。この例では,ROI度合いが高い領域について,処理1311〜1317を行うことにより分類する。まず,パターン/欠陥判定処理1311により,ROI内に映った対象物がパターンか欠陥かを識別する。その結果,欠陥と判定された場合には,欠陥種類判定処理1312を行う。パターン/欠陥の判定は,例えば,同様のパターンが映った別の領域を撮像した画像(参照画像)と撮像画像との差分を計算し,差分が大きければ欠陥,そうでなければパターンと判定することにより行える。または,機械学習などの手法を用いることもできる。欠陥種類の判定方法は,例えば特開2000−99727号公報に開示されている。また,高さ関係判定処理1313により,ROI内とその周辺領域に存在する複数の対象物の高さ関係を識別する。この識別方法の一例は,図14を用いて後述する。透明度判定1314では,ROI内にある対象物の透明度を判定する。例えば図3で示した欠陥311は透明度がほぼゼロで,欠陥の下側にある対象物が映らないのに対し,凹凸欠陥324は,透明が高い。透明度は,例えば図5の欠陥がない画像を推定する処理503等を行い,その結果との比較を行うことで判定することができる。暗部/明部判定処理1315では,明度値に応じて下層領域などの暗部であるか,上層パターンなどの明部であるかを判定する。影領域内外判定処理1316では,ROIが近傍にある上層パターンの影の領域の内部にあるか否かを判定する。ROI周辺領域との明度差判定処理1317では,ROI周辺領域との代表的な明度値の差を計算する。代表的な明度値とは,明度値の平均であっても良いし,明度値の平均と標準偏差から求めるような量であっても良い。
FIG. 13 is a diagram showing an example of the flow of ROI classification processing corresponding to step 103 in FIG. In this process, the set of captured images and the ROI degree are used as an
このように,複数の判定基準に基づいてROIを分類することで,ROIの種類毎により適切な統合処理を行うことが可能になる。 In this way, by classifying ROIs based on a plurality of determination criteria, it is possible to perform appropriate integration processing for each type of ROI.
処理1311〜1317の結果は,離散値であっても連続値であっても良い。例えばパターン/欠陥判定処理1311は2値を返すが,透明度判定処理1313は透明度を表す連続値であっても良い。また,ROI内の各画素または各小領域について判定を行なっても良い。どのような分類を行うかは,対象によって変えることができる。例えば,欠陥を含む試料が対象でないならば,パターン/欠陥判定1311は不要であるし,影が存在しない画像ならば,影領域内外判定1316は不要である。分類項目は,後述するインターフェイス等を通してユーザから選択できるようにしても良いし,工程毎に自動で切り替えても良い。
The results of the
図14は,ROI内に存在する複数の対象物の高さ関係を識別する処理の一実施例図である。2枚の画像1401および1402の例を用いて説明する。両画像において,欠陥が映った領域1412および1414をROIとする。ROIには欠陥の他にパターン1411および1413が含まれている。欠陥は,透明度がほぼゼロの異物である。まず,ROIおよび周辺領域抽出処理1403を行う。これは,ROI抽出処理の結果であるROI度合いを用いて,例えばROI度合いが高い領域とその近傍の領域を抽出することにより実現できる。これにより,両画像に対して,それぞれ領域1415および領域1416が抽出できる。次に,高さ関係を識別する処理1405を行う。領域1415では,パターン1417が欠陥領域の内部では見えないことから,欠陥が上側にあることがわかる。一方,領域1416では,パターン1418が欠陥領域の内部でも繋がって見えることから,欠陥が下側にあることがわかる。このようにパターンが繋がって見えるか否かの情報に基づいて判定を行うことができる。
FIG. 14 is a diagram illustrating an example of processing for identifying the height relationship of a plurality of objects existing in the ROI. This will be described using an example of two
このような識別を用いてROIの分類を行うことにより,対象物の高さに関する情報を保存した統合を行うことが可能となるため,自然な画像を提供することができる。例えば,画像1401では統合後の画像でも欠陥はパターンの上側に存在するように見えるし,画像1402では統合後の画像でも欠陥はパターンの下側に存在するように見えるように,統合処理を行える。
By classifying ROI using such identification, it is possible to perform integration that preserves information related to the height of the object, so that a natural image can be provided. For example, the integration process can be performed so that the defect appears to exist above the pattern in the
高さ関係の識別には,図14の例とは異なる方法を用いても良い。例えば,陰影像を利用できるならば,影の付き方を見て高さ関係を求めることができる。または,設計データを用いても高さ関係を明らかにできる。 For identification of the height relationship, a method different from the example of FIG. 14 may be used. For example, if a shadow image can be used, the height relationship can be obtained by looking at how the shadow is added. Alternatively, the height relationship can be clarified using design data.
図15は,ROIが上層パターン領域(以下,上層領域),下層領域,パターン側壁領域(以下,側壁領域)のうち,何れの領域に属するかを識別する処理を表す一実施例図である。画像1501は識別の対象とする画像である。画像内に含まれる3個の欠陥A〜Cの領域をROIとする。まず,上層・下層・側壁抽出処理1503により,画像を上層領域と下層領域と側壁領域に分離する。この処理は,図14の場合と同様に,影の付き方や設計データを用いて行うことができる。または,明度値が相対的に高い領域は上層領域,相対的に低い領域は下層領域と識別することもできる。画像1501の例では側壁領域はなく,画像1502のように上層領域と下層領域に分離される。次に,ROIの上層/下層/側壁識別処理1504により,各ROIが何れの領域に属するかを識別する。この処理を行うためには,画像1502を用いて各ROIがどの領域に存在するかを求めれば良い。画像1501の例では,欠陥Aは上層領域に属し,欠陥Bは下層領域に属する。欠陥Cは上層領域と下層領域の両方に属する。
FIG. 15 is a diagram illustrating an example of a process for identifying which region of ROI an upper layer pattern region (hereinafter referred to as an upper layer region), a lower layer region, and a pattern sidewall region (hereinafter referred to as a sidewall region) belongs to. An
ROIが下層領域や側壁領域に存在する場合,視認性を向上するためには重み付け加算処理よりも高度な処理が必要となる場合が多い。例えば,ROIが下層領域に存在する場合には,試料から放出される荷電粒子が上層パターンに遮蔽されるため検出器に到達しにくくなり,コントラストが低下することも多い。このような画像に対してROIを顕在化するためには,重み付け加算のみでなく明度調整も必要になる。また,ROIが側壁領域に存在する場合には,側壁領域は画像内の小さい領域であるため視認性が良好ではないことが多い。ROIが側壁領域にある場合に,荷電粒子ビームを試料の直上からではなく斜め方向から照射して(すなわち,チルトさせて)画像を撮像する場合もある。このときに,チルトさせずに撮像した画像にチルト画像を統合することにより,ROIの視認性を向上できる。しかし,統合を行う前に,それぞれの画像の画素間の対応付けを行うために適切に伸縮させる必要がある。図15の実施例のように,ROIが上層領域,下層領域,側壁領域の何れに存在するかを識別すれば,その結果に応じて適切な統合の方法を選択することができる。 When the ROI is present in the lower layer region or the side wall region, in order to improve the visibility, it is often necessary to perform processing more advanced than the weighted addition processing. For example, when the ROI is present in the lower layer region, charged particles emitted from the sample are shielded by the upper layer pattern, making it difficult to reach the detector, and the contrast is often lowered. In order to realize ROI for such an image, not only weighted addition but also brightness adjustment is required. In addition, when the ROI exists in the side wall region, the side wall region is a small region in the image, and thus visibility is often not good. When the ROI is in the side wall region, the charged particle beam may be irradiated from an oblique direction (that is, tilted) instead of directly above the sample, and an image may be captured. At this time, the visibility of the ROI can be improved by integrating the tilt image with the image captured without tilting. However, before integration, it is necessary to appropriately expand and contract in order to associate the pixels of each image. If the ROI is present in the upper layer region, the lower layer region, or the sidewall region as in the embodiment of FIG. 15, an appropriate integration method can be selected according to the result.
図16は,分類結果に応じて統合方法を制御する処理を表す一実施例図である。この処理では,分類結果1601と撮像画像のセット1605を入力とし,統合画像1607を得る。予め,分類結果と,適用する統合方式との関係をテーブル1603等のデータとして持っておく。まず,与えられた分類結果1601に応じて,スイッチ1604によりどの統合方式を用いるかを決定する。また,分類結果に応じて,パラメータ設定処理1602により統合処理に必要なパラメータを決定する。パラメータ設定処理1602でも,分類結果と適用するパラメータとの関係を予めテーブル等のデータとして持っておき,分類結果に応じて対応する値を読み込む。パラメータ設定処理1602は,撮像画像を用いて行なっても良い。例えば,明度値調整処理を行いたい場合などでは,ある領域の平均明度値が揃うように調整するなど,対象とする撮像画像を用いたほうが適切な値を設定できることも多い。最後に,統合処理1606により画像セット1605の統合を行う。
FIG. 16 is a diagram illustrating an example of processing for controlling the integration method according to the classification result. In this processing, a
分類結果は連続値を含んでいても良い。この場合,スイッチ処理1604およびパラメータ設定処理1602には,連続値を含む分類結果を用いて,テーブル等のデータのうちどの方式およびパラメータを用いるかを計算するような処理が入っていても良い。なお,常に1個以上のROIが存在するとは限らず,撮像画像によってはROIが存在しない場合もあり得る。その場合には,ROIが存在しないという分類結果を返し,その場合に適した統合方法を用いることにより,適切な処理を行うことができる。
The classification result may include a continuous value. In this case, the
図17は,分類結果に応じて統合方法を制御する処理を表す一実施例図である。図16では,テーブルなどのデータを用いて分類結果毎に統合方法を制御する処理について説明したが,本実施例では,予め定められたルールに基づいて分類結果毎に統合方法を制御する。この例では,ROIを欠陥とし,パターンの上側にあるか否か,透明度が高いか否か,上層パターンの影か否か,相対明度が高いか否かを,処理1702〜1705により判定し,その結果に応じて統合方法を変える。まず,判定処理1702によりパターンの上側にあるか否かを判定し,パターンの上側にないと判定した場合は,図5の実施例図にて説明したようなROI差分情報との荷重和処理1711を行う。パターンの上側にあると判定した場合は,次に判定処理1703により透明度が高いか否かを判定する。この処理は,例えば透明度があるしきい値を超えるか否かにより判定すれば良い。透明度が高いと判定した場合は,処理1711を行う。一方,透明度が高くはないと判定した場合は,判定処理1703によりROIが上層パターンの影の領域にあるか否かを判定する。影の領域にはないと判定した場合は,図4の実施例図にて説明したような荷重和処理1712を行う。影の領域にあると判定した場合は,判定処理1705でROI周囲との相対明度が高いか否かを判定する。相対明度が高いと判定した場合は,荷重和処理1712を行う。一方,相対明度が低いと判定した場合は,図6の実施例図にて説明したような明度調整後に荷重和を計算する処理1713を行う。
FIG. 17 is a diagram illustrating an example of processing for controlling the integration method according to the classification result. In FIG. 16, the processing for controlling the integration method for each classification result using data such as a table has been described, but in this embodiment, the integration method is controlled for each classification result based on a predetermined rule. In this example, it is determined by processing 1702-1705 whether ROI is a defect and whether it is above the pattern, whether the transparency is high, whether it is a shadow of the upper layer pattern, or whether the relative brightness is high, The integration method is changed according to the result. First, it is determined whether or not the pattern is above the pattern by the
図18は,分類結果毎の統合方法を設定するためのユーザインターフェイスを表す一実施例図である。タブ1801では,各々の画像をベース画像とする統合画像の生成方法に関する設定を切り替えられる。この例では,チルトをせずに撮像した2次荷電粒子像(SP像)と後方散乱荷電粒子像(BSP像),およびチルトをして撮像したSP像とBSP像の,4枚の撮像画像から,SP像をベース画像とする統合画像を作成するための統合方法を設定する画面を表示している。タブ1801をBSP像に設定すれば,同じ4枚の撮像画像から,BSP像をベース画像とする統合画像を生成するための統合方法を指定できる。4枚の撮像画像から任意の枚数の統合画像を生成することができる。SP像をベース画像とする統合画像を2枚生成しても良い。統合方法を設定する画面は,対象とする分類結果を指定するセル1812と,対応する統合方法を指定するセル1813と,その設定の優先順位を指定するセル1811からなる。また,設定を決定するための決定ボタン1821と設定をデフォルト値に戻すクリアボタン1822がある。
FIG. 18 is a diagram illustrating an example of a user interface for setting an integration method for each classification result. In a
1831の行では,分類結果がスクラッチ欠陥の場合,SP像に対してBSP像におけるROIの差分(セル中の記述 "sub(・)" は,ROIの差分を求める関数を表す)をa倍した値を加算した値をROIにおける統合結果とすることを表している。この処理は,図5の実施例図で説明をした統合方法に対応する。aはパラメータであり,ユーザにより別途指定された値を用いても良いし,ROIにおけるコントラストが一定値以上である等の評価指標に基づいて自動で決定しても良い。ROI以外の領域における統合方法は本実施例図では記載していないが,同様にインターフェイスを通して設定しても良いし,自動で制御しても良い。例えば1831の行の場合はROI以外の領域ではベース画像であるSP像をそのまま用いれば良いし,形状変形や明度調整が必要となる場合には対応する処理を行うようにすれば良い。1832の行では,分類結果が暗部の場合,SP像に対して明度調整を行った画像(セル中の記述 "contr(・)" は,明度調整を行う関数を表す)と,BSP像に対して明度調整を行った画像のうち,平均明度値が高いほうの画像(セル中の記述 "argmax(・)" は,平均明度値が高い画像を選択する関数を表す)をROIにおける統合結果とすることを表している。1831の行と1832の行では,1831の行のほうが優先順位が高いため,暗部にあるスクラッチ欠陥があると1831の行にて指定された統合方法が適用される。1833の行では,分類結果がパターン側壁領域にあり,かつチルト像から抽出されたROIである場合,チルトさせたSP像を形状変形した画像(セル中の記述 "distort(・)" は,形状変形する関数を表す)をROIにおける統合結果とすることを表している。この際,図9の実施例図にて説明したように,ベース画像も形状変形するとROIがより見やすくなる場合があるため,ベース画像も必要に応じて自動で形状変形する。1834の行では,分類結果がその他の全ての場合,SP像をb倍した画像とROIを1−b倍した画像の和を,ROIでの統合画像とすることを表している。bはパラメータである。このように,分類結果毎の統合方法を指定するインターフェイスを備えることにより,ユーザが望む方法で統合方法を制御することが可能になる。
In the
統合方法は,必要に応じて詳細を指定できるような機能を設けても良い。一方,詳細な指定を行わなかった場合にも,ある程度自動で処理をするようにしても良い。例えば,1831の行におけるパラメータaは,先述したように指定をしなくても自動で適切な値を設定するような処理にすることができる。同様に,1832の行における明度調整や1833の行における形状変形においても,具体的なパラメータが指定されなかった場合には自動で設定するような処理にすることができる。
The integration method may be provided with a function that can specify details as required. On the other hand, even when detailed designation is not performed, the processing may be performed to some extent automatically. For example, the parameter a in the
また,インターフェイス画面において,タグの追加・削除・修正を行うためのインターフェイスや,セルの行数を増減するためのインターフェイス,設定をファイルに書き出したり,ファイルから読み込んだりするためのインターフェイスを備えていても良い。さらにパラメータ等の詳細設定を行うためのインターフェイスを備えていても良い。 In addition, the interface screen has an interface for adding / deleting / modifying tags, an interface for increasing / decreasing the number of cell rows, and an interface for writing / reading settings to / from a file. Also good. Further, an interface for performing detailed settings such as parameters may be provided.
図19は,欠陥を含む高倍画像を自動で撮像してその統合画像を求めるシーケンスの一実施例図である。欠陥を含む高倍画像を自動で撮像するためには,欠陥位置を高精度に求める必要がある。このためには,まず低倍画像を撮像し,その低倍画像から欠陥検出処理を行なうことにより欠陥位置を高精度に求めるという前処理が必要になることが多い。そこで,まず,ステップ1901にて,低倍参照画像1911を取得する。参照画像は,半導体ウェハ内の他のチップにおける対応する位置を撮像した画像であっても良いし,同一チップにおける同様の形状のパターンが存在する位置を撮像した画像であっても良い。次に,ステップ1902にて低倍欠陥画像1912を取得し,ステップ1903により低倍参照画像1911と低倍欠陥画像1912を用いて欠陥位置を特定する。その後,ステップ1904にて高倍欠陥画像を取得する。ステップ1905ではROIを抽出し,ステップ1906ではROIを分類する。ステップ1907にて分類結果に基づいて画像を統合し,最後にステップ1908で統合画像を表示する。高倍欠陥画像を取得する方法は,例えば特開平9−139406号公報に開示されている。統合画像を表示する前に,データベース等に統合画像を保存しておき,観察対象とする欠陥位置毎にステップ1901〜 1907の処理を繰り返した後,最後にまとめて統合画像を表示しても良い。
FIG. 19 is an example of a sequence for automatically capturing a high-magnification image including a defect and obtaining an integrated image thereof. In order to automatically capture a high-magnification image including a defect, it is necessary to obtain the defect position with high accuracy. For this purpose, it is often necessary to perform preprocessing in which a low-magnification image is first taken and a defect position is obtained from the low-magnification image to obtain a defect position with high accuracy. Therefore, first, in
ステップ1905でROIを抽出したり,ステップ1906でROIを分類する際,高倍欠陥画像のみでなく,低倍参照画像1911や逓倍欠陥画像1912を用いても良い。また,ステップ1907で画像を統合する際,複数枚の高倍欠陥画像を統合しても良いし,低倍参照画像1911,低倍欠陥画像1912の何れかまたは両方と高倍欠陥画像を統合しても良いし,低倍参照画像1911,低倍欠陥画像1912の何れかまたは両方のみを用いて統合しても良い。または,他の欠陥位置を撮像した際に取得した他の画像(低倍参照画像または低倍欠陥画像または高倍欠陥画像)を用いて統合しても良い。
When extracting the ROI in
以上の実施例で説明したとおり、本願発明は以下の画像表示方法および前記画像表示方法を搭載した荷電粒子顕微鏡装置により前記課題を解決するものである。 As described in the above embodiments, the present invention solves the above problems by the following image display method and a charged particle microscope apparatus equipped with the image display method.
(1)本発明は,複数枚の画像を撮像し,撮像画像からROIを抽出・分類した後,複数枚の撮像画像を統合して表示する。この際,ROIの分類結果に応じて統合方法を制御することを特徴とする。 (1) In the present invention, a plurality of images are captured, ROIs are extracted and classified from the captured images, and then the plurality of captured images are integrated and displayed. At this time, the integration method is controlled according to the ROI classification result.
これにより,ROI毎に画像での見え方が大きく異なる場合でも,自動で各々のROIに適した方法を選択して統合を行うことができ,常にROIの画質が良好な画像を提供することが可能になる。 As a result, even if the appearance of the image differs greatly for each ROI, it is possible to automatically select and integrate the method suitable for each ROI, and always provide an image with good ROI image quality. It becomes possible.
(2)また,本発明は,ROIの分類においてROI内に存在する複数の対象物の高さ関係を識別することを特徴とする。 (2) Further, the present invention is characterized in that the height relationship of a plurality of objects existing in the ROI is identified in the ROI classification.
ここで,荷電粒子源に近いほど高い位置にあり,遠いほど低い位置にあると表現している。例えば,ROIがホールパターンを含む場合,穴底は相対的に低い位置,ホール周辺の領域は相対的に高い位置にある。本発明では,対象物の高さ関係を識別した上で統合を行うことにより,対象物の高さに関する情報を残した自然な画像を提供することが可能になる。具体例として,酸化膜を撮像した画像において,ROIが埃などの欠陥(以下,異物)である場合を考える。異物が酸化膜の上にある場合には,異物が映った領域では異物の真下にあるパターンは通常は見えない。一方,異物が酸化膜の下にある場合には,ROIには酸化膜が異物のために盛り上がって見える。自然な画像にするためには,このような特徴を残した上で画像を統合する必要があり,高さ関係を用いてROIを分類することにより,これが可能になる。 Here, the closer to the charged particle source, the higher the position, and the farther away, the lower the position. For example, when the ROI includes a hole pattern, the hole bottom is at a relatively low position and the area around the hole is at a relatively high position. In the present invention, it is possible to provide a natural image in which information on the height of the object remains, by performing integration after identifying the height relationship of the object. As a specific example, let us consider a case where an ROI is a defect such as dust (hereinafter, foreign matter) in an image obtained by imaging an oxide film. When the foreign matter is on the oxide film, the pattern directly under the foreign matter is usually not visible in the region where the foreign matter is reflected. On the other hand, when the foreign substance is under the oxide film, the oxide film appears to rise in the ROI due to the foreign substance. In order to make a natural image, it is necessary to combine the images while leaving such features, and this can be done by classifying the ROI using the height relation.
(3)また,本発明は,ROIの分類において,ROIが上層パターン領域,下層領域,パターン側壁領域,のうち少なくとも二つの領域のうち,何れであるかを識別することを特徴とする。 (3) Further, according to the present invention, in the classification of ROI, the ROI is identified as one of at least two of an upper layer pattern region, a lower layer region, and a pattern side wall region.
ROIが下層領域やパターン側壁領域に存在する場合,視認性を向上するためには重み付け加算処理よりも高度な処理が必要となる場合が多い。例えば,ROIが下層領域に存在する場合には,試料から放出される荷電粒子が上層パターンに遮蔽されるため検出器に到達しにくくなり,一般にコントラストが低下する。このような画像に対してROIを顕在化するためには,重み付け加算のみでなく明度調整も必要になる。また,ROIがパターン側壁領域に存在する場合,パターン側壁領域は画像内の小さい領域に対応することが多いため視認性が良好ではないことが多い。ROIがパターン側壁領域にある場合に,荷電粒子ビームを試料の直上からではなく斜め方向から照射して(すなわち,チルトさせて)画像を撮像する場合もある。このときに,チルトさせずに撮像した画像にチルト画像を統合することにより,ROIの視認性を向上できる。しかし,統合を行う前に,それぞれの画像の画素間の対応付けを行うために,画像を適切に伸縮させる必要がある。このように,ROIが上層パターン領域,下層領域,パターン側壁領域の何れに存在するかに応じて適切な統合の方法が異なるが,本発明により,どの領域に存在するかを分類して統合方法を制御することで,適切な統合方法を適用することができる。 When the ROI is present in the lower layer region or the pattern side wall region, in order to improve the visibility, it is often necessary to perform processing more advanced than the weighted addition processing. For example, when the ROI exists in the lower layer region, charged particles emitted from the sample are shielded by the upper layer pattern, so that it becomes difficult to reach the detector, and the contrast generally decreases. In order to realize ROI for such an image, not only weighted addition but also brightness adjustment is required. In addition, when the ROI exists in the pattern side wall region, the pattern side wall region often corresponds to a small region in the image, and thus visibility is often not good. When the ROI is in the pattern sidewall region, an image may be taken by irradiating a charged particle beam from an oblique direction (that is, tilted) rather than from directly above the sample. At this time, the visibility of the ROI can be improved by integrating the tilt image with the image captured without tilting. However, before performing integration, it is necessary to appropriately expand and contract the images in order to associate the pixels of each image. As described above, an appropriate integration method differs depending on whether the ROI exists in the upper layer pattern region, the lower layer region, or the pattern side wall region. However, according to the present invention, the region in which the ROI exists is classified and integrated. By controlling, appropriate integration methods can be applied.
(4)また,本発明は,ROIの周辺領域における複数枚の撮像画像の間の形状情報に基づいて,撮像画像に対してROIおよびROIの周辺領域を変形した後で統合することを特徴とする。 (4) In addition, the present invention is characterized in that, based on shape information between a plurality of captured images in the peripheral region of the ROI, the ROI and the peripheral region of the ROI are integrated after being deformed with respect to the captured image. To do.
複数枚の撮像画像の間には,画像歪みのために画素毎に映っているものが異なることもある。チルトさせていない画像とチルト画像は分かりやすい例である。また,異なる種類の検出器で撮像した画像であっても,例えばパターンの境界部において,一方の画像では上層パターンの情報が支配的であり,他方の画像では下層領域の情報が支配的である場合も多い。この場合には,下層領域の幅が画像によって異なって見える。これらの場合には事前に形状を適切に変形しなければ,複数の撮像画像を統合した際に,その境界が不連続になるなどの不具合が発生する。この際,ROIのみでなく,その周辺領域も変形する必要がある。これに対し,本発明により画像歪みのある撮像画像の場合にも自然に統合を行うことができる。 Among a plurality of captured images, what is reflected for each pixel may be different due to image distortion. An image that is not tilted and a tilted image are easy to understand. In addition, even in images captured by different types of detectors, for example, at the boundary of the pattern, information on the upper layer pattern is dominant in one image, and information on the lower layer region is dominant in the other image. There are many cases. In this case, the width of the lower layer area looks different depending on the image. In these cases, if the shape is not appropriately deformed in advance, when a plurality of captured images are integrated, problems such as discontinuities in the boundaries occur. At this time, it is necessary to transform not only the ROI but also the surrounding area. On the other hand, the present invention can naturally integrate even in the case of a captured image with image distortion.
(5)また,本発明は,ROIと,ROIの周辺領域との明暗関係を保存して統合することを特徴とする。 (5) Further, the present invention is characterized by preserving and integrating the ROI and the light-dark relationship between the ROI and the surrounding area.
画像の各領域の明度値は,複数の撮像画像の間で大きく異なる場合がある。例えば,異なる種類の検出器を用いた場合は,各々の検出器にて検出している粒子の種類や特徴が異なるため,明度値は一般に大きく異なる。また,検出器の配置位置によっても,各検出器に到達する粒子の個数が変化するため明度値は異なる。このため,単純な重み付け加算では明暗が逆転して不自然に見える場合がある。これに対し,本発明では,統合処理の際に明度調整を行うことによりROIとROIの周辺領域との明暗関係を保存する。これにより,明暗の逆転を抑えた自然な統合を可能とする。 The brightness value of each region of the image may vary greatly between the plurality of captured images. For example, when different types of detectors are used, the brightness values generally differ greatly because the types and characteristics of the particles detected by each detector are different. Also, the brightness value varies depending on the position of the detector, because the number of particles that reach each detector changes. For this reason, with simple weighted addition, light and dark may be reversed and it may appear unnatural. On the other hand, in the present invention, the brightness relationship between the ROI and the surrounding area of the ROI is preserved by adjusting the brightness during the integration process. As a result, natural integration that suppresses the reversal of light and dark is possible.
上記(1)−(5)に示した本願発明によれば、荷電粒子顕微鏡において、複数枚の画像を撮像し、撮像画像からROIを抽出・分類した後、複数枚の撮像画像を統合して表示する際に、分類結果に応じて統合方法を制御することにより、各々のROIが見えやすい画像を提供する走査荷電粒子顕微鏡装置およびその画像表示方法を提供することができるという効果を奏します。 According to the present invention shown in the above (1) to (5), in the charged particle microscope, after capturing a plurality of images, extracting and classifying the ROI from the captured images, integrating the plurality of captured images. When displaying, by controlling the integration method according to the classification result, it is possible to provide a scanning charged particle microscope device that provides an image in which each ROI can be easily seen and its image display method.
Claims (12)
前記画像取得ステップにて取得した該複数の撮像画像から一以上の観察対象領域を抽出する観察対象領域抽出ステップと、
前記観察対象領域抽出ステップにて抽出した該一以上の観察対象領域を分類する観察対象領域分類ステップと、
前記観察対象領域分類ステップの分類結果に基づき決定した統合方法により該複数の撮像画像を統合して統合画像を生成する画像統合ステップと、
を備える観察方法。 An image acquisition step of capturing a sample and acquiring a plurality of captured images;
An observation target region extraction step for extracting one or more observation target regions from the plurality of captured images acquired in the image acquisition step;
An observation area classification step for classifying the one or more observation areas extracted in the observation area extraction step;
An image integration step of generating an integrated image by integrating the plurality of captured images by an integration method determined based on the classification result of the observation target region classification step;
An observation method comprising:
前記画像統合ステップは,該対象物の高さに関する情報に基づいて統合方法を決定することを特徴とする請求項1記載の観察方法。 In the observation target region classification step, the one or more observation target regions are classified based on information on the heights of a plurality of objects existing in the observation target region,
The observation method according to claim 1, wherein the image integration step determines an integration method based on information on the height of the object.
前記画像統合ステップは,前記観察対象領域分類ステップの分類結果に基づいて統合方法を決定することを特徴とする請求項1または2記載の観察方法。 In the observation target region classification step, the observation target region is classified as to which of at least two regions of the upper layer pattern region, the lower layer region, and the pattern sidewall region belong,
The observation method according to claim 1, wherein the image integration step determines an integration method based on a classification result of the observation target region classification step.
前記画像取得部にて取得した該複数の撮像画像から一以上の観察対象領域を抽出する観察対象領域抽出部と、
前記観察対象領域抽出部にて抽出した該一以上の観察対象領域を分類する観察対象領域分類部と、
前記観察対象領域分類部の分類結果に基づき決定した統合方法により該複数の撮像画像を統合して統合画像を生成する画像統合部と、
を備える観察装置。 An image acquisition unit that captures a sample and acquires a plurality of captured images;
An observation target region extraction unit that extracts one or more observation target regions from the plurality of captured images acquired by the image acquisition unit;
An observation target region classification unit that classifies the one or more observation target regions extracted by the observation target region extraction unit;
An image integration unit that generates an integrated image by integrating the plurality of captured images by an integration method determined based on a classification result of the observation target region classification unit;
An observation apparatus comprising:
前記画像統合部は,該対象物の高さに関する情報に基づいて統合方法を決定することを特徴とする請求項7記載の観察装置。 The observation target region classification unit classifies the one or more observation target regions based on information on the heights of a plurality of objects existing in the observation target region,
The observation apparatus according to claim 7, wherein the image integration unit determines an integration method based on information on the height of the object.
前記画像統合部は,前記観察対象領域分類部の分類結果に基づいて統合方法を決定することを特徴とする請求項7または8記載の観察装置。 The observation target region classification unit classifies whether the observation target region belongs to at least two of the upper layer pattern region, the lower layer region, and the pattern sidewall region,
The observation apparatus according to claim 7, wherein the image integration unit determines an integration method based on a classification result of the observation target region classification unit.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013083478A JP2014207110A (en) | 2013-04-12 | 2013-04-12 | Observation apparatus and observation method |
| US14/250,438 US9305343B2 (en) | 2013-04-12 | 2014-04-11 | Observation device and observation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013083478A JP2014207110A (en) | 2013-04-12 | 2013-04-12 | Observation apparatus and observation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014207110A true JP2014207110A (en) | 2014-10-30 |
Family
ID=51686847
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013083478A Pending JP2014207110A (en) | 2013-04-12 | 2013-04-12 | Observation apparatus and observation method |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9305343B2 (en) |
| JP (1) | JP2014207110A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020038579A (en) * | 2018-09-05 | 2020-03-12 | 日立造船株式会社 | Information processing apparatus, information processing method, and information processing program |
| US10810733B2 (en) | 2016-05-24 | 2020-10-20 | Hitachi High-Tech Corporation | Defect classification apparatus and defect classification method |
| WO2021044532A1 (en) * | 2019-09-04 | 2021-03-11 | 株式会社日立ハイテク | Charged particle beam device |
| JP2022104899A (en) * | 2020-12-30 | 2022-07-12 | エフ イー アイ カンパニ | Method for executing high dynamic range charged particle analysis |
| US12182983B2 (en) | 2018-08-15 | 2024-12-31 | Asml Netherlands B.V. | Utilize machine learning in selecting high quality averaged SEM images from raw images automatically |
| KR102917833B1 (en) * | 2018-08-15 | 2026-01-28 | 에이에스엠엘 네델란즈 비.브이. | Utilize machine learning in selecting high quality averaged sem images from raw images automatically |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9154709B2 (en) * | 2012-12-21 | 2015-10-06 | Google Inc. | Recommending transformations for photography |
| JP2015025758A (en) * | 2013-07-26 | 2015-02-05 | Hoya株式会社 | Substrate inspection method, substrate manufacturing method, and substrate inspection device |
| JP2016058465A (en) * | 2014-09-08 | 2016-04-21 | 株式会社日立ハイテクノロジーズ | Defect quantification method, defect quantification device, and defect evaluation value display device |
| KR102419162B1 (en) * | 2015-03-17 | 2022-07-11 | 삼성전자주식회사 | method for detecting patternsand substrate manufacturing apparatus using the same |
| FR3043818B1 (en) * | 2015-11-16 | 2019-10-18 | Synapsys | SYSTEM FOR PRODUCING, TRANSMITTING AND INTERPRETING A COMPOSITE FLOW AND ASSOCIATED METHODS |
| JP6833366B2 (en) * | 2016-07-06 | 2021-02-24 | キヤノン株式会社 | Information processing device, control method and program of information processing device |
| CN109478228A (en) * | 2016-09-30 | 2019-03-15 | 富士通株式会社 | Method, device and electronic device for fusion of classification results |
| CN109298778B (en) * | 2017-07-24 | 2021-02-23 | 宏达国际电子股份有限公司 | Tracking system and method therefor |
| JP6937254B2 (en) * | 2018-02-08 | 2021-09-22 | 株式会社日立ハイテク | Inspection system, image processing equipment, and inspection method |
| JP6675433B2 (en) * | 2018-04-25 | 2020-04-01 | 信越化学工業株式会社 | Defect classification method, photomask blank sorting method, and mask blank manufacturing method |
| US10878245B2 (en) * | 2018-05-30 | 2020-12-29 | Logitech Europe S.A. | Video content activity regions |
| CN119920664A (en) * | 2019-04-18 | 2025-05-02 | 株式会社日立高新技术 | Charged particle beam device |
| US11494892B2 (en) | 2020-08-21 | 2022-11-08 | Abb Schweiz Ag | Surface defect detection system |
| JP2023168950A (en) * | 2022-05-16 | 2023-11-29 | キヤノン株式会社 | Image processor, method for processing image, and program |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001344599A (en) * | 2000-06-02 | 2001-12-14 | Hitachi Ltd | All-focus image synthesizing method and apparatus |
| JP2011119446A (en) * | 2009-12-03 | 2011-06-16 | Hitachi High-Technologies Corp | Charged particle beam device and picture quality improving method thereof |
| JP2011220735A (en) * | 2010-04-06 | 2011-11-04 | Hitachi High-Technologies Corp | Scanning electron microscope |
Family Cites Families (47)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6965682B1 (en) * | 1999-05-19 | 2005-11-15 | Digimarc Corp | Data transmission by watermark proxy |
| US7095871B2 (en) * | 1995-07-27 | 2006-08-22 | Digimarc Corporation | Digital asset management and linking media signals with related data using watermarks |
| JP3490559B2 (en) * | 1995-11-14 | 2004-01-26 | 富士写真フイルム株式会社 | Method for determining main part of image and method for determining copy conditions |
| US6819783B2 (en) * | 1996-09-04 | 2004-11-16 | Centerframe, Llc | Obtaining person-specific images in a public venue |
| US6290349B1 (en) * | 1999-05-25 | 2001-09-18 | Silverbrook Research Pty Ltd | Printer consumable cartridge |
| US6538249B1 (en) | 1999-07-09 | 2003-03-25 | Hitachi, Ltd. | Image-formation apparatus using charged particle beams under various focus conditions |
| JP2006190693A (en) | 1999-07-09 | 2006-07-20 | Hitachi Ltd | Charged particle beam equipment |
| WO2001015086A1 (en) * | 1999-08-19 | 2001-03-01 | Sony Corporation | Image processor, image processing method, and recorded medium |
| JP2002032751A (en) * | 2000-07-18 | 2002-01-31 | Olympus Optical Co Ltd | Learning type image classifying device and method and recording medium with its processing program recorded thereon |
| US6976028B2 (en) * | 2001-06-15 | 2005-12-13 | Sony Corporation | Media content creating and publishing system and process |
| US7380212B2 (en) * | 2003-03-18 | 2008-05-27 | Microsoft Corporation | Dynamic-template incorporation of digital images in an electronic mail message |
| US7177881B2 (en) * | 2003-06-23 | 2007-02-13 | Sony Corporation | Network media channels |
| JP3834041B2 (en) * | 2004-03-31 | 2006-10-18 | オリンパス株式会社 | Learning type classification apparatus and learning type classification method |
| US7646896B2 (en) * | 2005-08-02 | 2010-01-12 | A4Vision | Apparatus and method for performing enrollment of user biometric information |
| JP4510560B2 (en) * | 2004-09-07 | 2010-07-28 | 富士重工業株式会社 | Image processing device |
| JP4506409B2 (en) * | 2004-10-27 | 2010-07-21 | 株式会社デンソー | Region dividing method and apparatus, image recognition processing apparatus, program, and recording medium |
| US20060253782A1 (en) * | 2005-04-01 | 2006-11-09 | Vulcan Inc. | Interface for manipulating multimedia playlists |
| US8196166B2 (en) * | 2006-12-21 | 2012-06-05 | Verizon Patent And Licensing Inc. | Content hosting and advertising systems and methods |
| US8117256B2 (en) * | 2007-01-09 | 2012-02-14 | Yahoo! Inc. | Methods and systems for exploring a corpus of content |
| BRPI0721462A2 (en) * | 2007-03-23 | 2013-01-08 | Thomson Licensing | 2d image region classification system and method for 2d to 3d conversion |
| US8307392B2 (en) * | 2007-06-11 | 2012-11-06 | Yahoo! Inc. | Systems and methods for inserting ads during playback of video media |
| US20090022403A1 (en) * | 2007-07-20 | 2009-01-22 | Fujifilm Corporation | Image processing apparatus, image processing method, and computer readable medium |
| CN101755461B (en) * | 2007-07-20 | 2012-06-13 | 富士胶片株式会社 | Image processing device, image processing method |
| US8769437B2 (en) * | 2007-12-12 | 2014-07-01 | Nokia Corporation | Method, apparatus and computer program product for displaying virtual media items in a visual media |
| US7894639B2 (en) * | 2008-01-03 | 2011-02-22 | International Business Machines Corporation | Digital life recorder implementing enhanced facial recognition subsystem for acquiring a face glossary data |
| US8385971B2 (en) * | 2008-08-19 | 2013-02-26 | Digimarc Corporation | Methods and systems for content processing |
| JP5164754B2 (en) | 2008-09-08 | 2013-03-21 | 株式会社日立ハイテクノロジーズ | Scanning charged particle microscope apparatus and processing method of image acquired by scanning charged particle microscope apparatus |
| JP5024632B2 (en) * | 2008-09-19 | 2012-09-12 | ソニー株式会社 | Image processing apparatus and method, and program |
| US8621028B2 (en) * | 2008-11-04 | 2013-12-31 | Microsoft Corporation | Content-recommendation message |
| US8459556B2 (en) * | 2009-01-09 | 2013-06-11 | Datalogic ADC, Inc. | Prioritized virtual scan line processing |
| WO2010106837A1 (en) | 2009-03-19 | 2010-09-23 | 株式会社日立ハイテクノロジーズ | Pattern inspecting apparatus and pattern inspecting method |
| JP5284863B2 (en) * | 2009-04-30 | 2013-09-11 | 独立行政法人理化学研究所 | Image processing apparatus, image processing method, and program |
| US20110004922A1 (en) * | 2009-07-01 | 2011-01-06 | Microsoft Corporation | User Specified Privacy Settings |
| US8804508B1 (en) * | 2009-07-16 | 2014-08-12 | Teradici Corporation | Method and apparatus for using a network appliance to manage media communications |
| US20110013810A1 (en) * | 2009-07-17 | 2011-01-20 | Engstroem Jimmy | System and method for automatic tagging of a digital image |
| US8503739B2 (en) * | 2009-09-18 | 2013-08-06 | Adobe Systems Incorporated | System and method for using contextual features to improve face recognition in digital images |
| CN102396001A (en) * | 2009-12-28 | 2012-03-28 | 松下电器产业株式会社 | Moving object detection device and moving object detection method |
| WO2011106412A1 (en) * | 2010-02-23 | 2011-09-01 | Unity Corporation, Inc. | Method and system of managing digital multimedia content |
| KR20120046415A (en) * | 2010-11-02 | 2012-05-10 | 삼성전자주식회사 | Method and system for sharing digital contents based on social network service |
| JP5537488B2 (en) | 2011-04-15 | 2014-07-02 | 株式会社日立ハイテクノロジーズ | Charged particle microscope apparatus and image capturing method |
| US8650252B2 (en) * | 2011-09-28 | 2014-02-11 | Facebook, Inc. | Instantaneous recommendation of social interactions in a social networking system |
| US20130332856A1 (en) * | 2012-06-10 | 2013-12-12 | Apple Inc. | Digital media receiver for sharing image streams |
| US20140031060A1 (en) * | 2012-07-25 | 2014-01-30 | Aro, Inc. | Creating Context Slices of a Storyline from Mobile Device Data |
| US8806391B2 (en) * | 2012-07-31 | 2014-08-12 | United Microelectronics Corp. | Method of optical proximity correction according to complexity of mask pattern |
| JP2014035326A (en) * | 2012-08-10 | 2014-02-24 | Toshiba Corp | Defect inspection device |
| US20140143666A1 (en) * | 2012-11-16 | 2014-05-22 | Sean P. Kennedy | System And Method For Effectively Implementing A Personal Assistant In An Electronic Network |
| US8701052B1 (en) * | 2013-01-23 | 2014-04-15 | United Microelectronics Corp. | Method of optical proximity correction in combination with double patterning technique |
-
2013
- 2013-04-12 JP JP2013083478A patent/JP2014207110A/en active Pending
-
2014
- 2014-04-11 US US14/250,438 patent/US9305343B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001344599A (en) * | 2000-06-02 | 2001-12-14 | Hitachi Ltd | All-focus image synthesizing method and apparatus |
| JP2011119446A (en) * | 2009-12-03 | 2011-06-16 | Hitachi High-Technologies Corp | Charged particle beam device and picture quality improving method thereof |
| JP2011220735A (en) * | 2010-04-06 | 2011-11-04 | Hitachi High-Technologies Corp | Scanning electron microscope |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10810733B2 (en) | 2016-05-24 | 2020-10-20 | Hitachi High-Tech Corporation | Defect classification apparatus and defect classification method |
| KR102917833B1 (en) * | 2018-08-15 | 2026-01-28 | 에이에스엠엘 네델란즈 비.브이. | Utilize machine learning in selecting high quality averaged sem images from raw images automatically |
| US12182983B2 (en) | 2018-08-15 | 2024-12-31 | Asml Netherlands B.V. | Utilize machine learning in selecting high quality averaged SEM images from raw images automatically |
| JP2020038579A (en) * | 2018-09-05 | 2020-03-12 | 日立造船株式会社 | Information processing apparatus, information processing method, and information processing program |
| JP6995031B2 (en) | 2018-09-05 | 2022-01-14 | 日立造船株式会社 | Information processing equipment, information processing methods, and information processing programs |
| US20220344124A1 (en) * | 2019-09-04 | 2022-10-27 | Hitachi High-Tech Corporation | Charged Particle Beam Device |
| CN114341631A (en) * | 2019-09-04 | 2022-04-12 | 株式会社日立高新技术 | Charged particle beam device |
| KR20220040490A (en) * | 2019-09-04 | 2022-03-30 | 주식회사 히타치하이테크 | charged particle beam device |
| JP7198360B2 (en) | 2019-09-04 | 2022-12-28 | 株式会社日立ハイテク | Charged particle beam device |
| KR102608709B1 (en) | 2019-09-04 | 2023-12-04 | 주식회사 히타치하이테크 | charged particle beam device |
| US12046446B2 (en) | 2019-09-04 | 2024-07-23 | Hitachi High-Tech Corporation | Charged particle beam device |
| CN114341631B (en) * | 2019-09-04 | 2024-12-31 | 株式会社日立高新技术 | Charged particle beam device |
| JPWO2021044532A1 (en) * | 2019-09-04 | 2021-03-11 | ||
| WO2021044532A1 (en) * | 2019-09-04 | 2021-03-11 | 株式会社日立ハイテク | Charged particle beam device |
| JP2022104899A (en) * | 2020-12-30 | 2022-07-12 | エフ イー アイ カンパニ | Method for executing high dynamic range charged particle analysis |
| JP7747256B2 (en) | 2020-12-30 | 2025-10-01 | エフ イー アイ カンパニ | Method for performing high dynamic range charged particle analysis |
Also Published As
| Publication number | Publication date |
|---|---|
| US20140307946A1 (en) | 2014-10-16 |
| US9305343B2 (en) | 2016-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014207110A (en) | Observation apparatus and observation method | |
| JP5537488B2 (en) | Charged particle microscope apparatus and image capturing method | |
| US11798780B2 (en) | Charged particle beam device | |
| JP6190768B2 (en) | Electron microscope apparatus and imaging method using the same | |
| JP5164754B2 (en) | Scanning charged particle microscope apparatus and processing method of image acquired by scanning charged particle microscope apparatus | |
| US10229812B2 (en) | Sample observation method and sample observation device | |
| JP5202071B2 (en) | Charged particle microscope apparatus and image processing method using the same | |
| JPWO2019150872A1 (en) | Image processing device and image processing method | |
| JP5380230B2 (en) | Charged particle microscope apparatus and sample inspection method using the same | |
| JP4261743B2 (en) | Charged particle beam equipment | |
| US9341579B2 (en) | Defect detection apparatus, defect detection method, and computer program | |
| TW202127374A (en) | System for generating image, and non-transitory computer-readable medium | |
| WO2016121009A1 (en) | Charged particle beam device | |
| CN116964721A (en) | Learner learning method and image generation system | |
| JP5775948B2 (en) | Charged particle microscope apparatus and image capturing method | |
| JP2006190693A (en) | Charged particle beam equipment | |
| JP2007287561A (en) | Charged particle beam equipment | |
| JP2004117208A (en) | Pattern measuring device, pattern measuring method and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150527 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150527 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160304 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160421 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170116 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170123 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170328 |