[go: up one dir, main page]

JP2014207110A - Observation apparatus and observation method - Google Patents

Observation apparatus and observation method Download PDF

Info

Publication number
JP2014207110A
JP2014207110A JP2013083478A JP2013083478A JP2014207110A JP 2014207110 A JP2014207110 A JP 2014207110A JP 2013083478 A JP2013083478 A JP 2013083478A JP 2013083478 A JP2013083478 A JP 2013083478A JP 2014207110 A JP2014207110 A JP 2014207110A
Authority
JP
Japan
Prior art keywords
image
roi
observation target
region
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013083478A
Other languages
Japanese (ja)
Inventor
中平 健治
Kenji Nakahira
健治 中平
宮本 敦
Atsushi Miyamoto
敦 宮本
大博 平井
Tomohiro Hirai
大博 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2013083478A priority Critical patent/JP2014207110A/en
Priority to US14/250,438 priority patent/US9305343B2/en
Publication of JP2014207110A publication Critical patent/JP2014207110A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/7065Defects, e.g. optical inspection of patterned layer for defects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

【課題】荷電粒子顕微鏡により撮像した複数枚の画像に対して適切な統合処理を行うことにより,見た目な良好な統合画像を生成して表示する。【解決手段】複数枚の画像を撮像し,撮像画像に含まれる1個以上のROIを抽出・分類した後,複数枚の撮像画像を統合して表示する。統合の際,ROIの分類結果に応じて統合方法を制御する。【選択図】 図1The present invention generates and displays a good integrated image by performing appropriate integration processing on a plurality of images captured by a charged particle microscope. A plurality of images are captured, one or more ROIs included in the captured image are extracted and classified, and then the plurality of captured images are integrated and displayed. During integration, the integration method is controlled according to the ROI classification results. [Selection] Figure 1

Description

本発明は,観察装置および観察方法に関する。 The present invention relates to an observation apparatus and an observation method.

荷電粒子顕微鏡は,光学顕微鏡に比べて分解能が非常に高く,被観察対象の微細な構造を鮮明に観察するために広く利用されている。荷電粒子顕微鏡では,荷電粒子ビームを対象試料に照射し,対象試料から放出される,または対象試料を透過する粒子(照射した荷電粒子と同種または別種の荷電粒子,または電磁波,光子)を検出器にて検出することで,対象試料の拡大画像を取得する。   Charged particle microscopes have a much higher resolution than optical microscopes, and are widely used to clearly observe the fine structure of an object to be observed. A charged particle microscope irradiates a target sample with a charged particle beam, and detects the particles emitted from the target sample or transmitted through the target sample (the same kind of charged particles as the irradiated charged particles, or electromagnetic waves, photons). By detecting at, an enlarged image of the target sample is acquired.

特に,半導体製造プロセスにおいては,半導体ウェハの検査,パターン寸法の計測,パターン形状の計測などの用途として,走査型電子顕微鏡(Scanning Electron Microscope)や走査型イオン顕微鏡(Scanning Ion Microscope),走査型透過電子顕微鏡(Scanning Transmission Electron Microscope)などの荷電粒子顕微鏡が用いられている。これらの用途においては,撮像した画像を用いて,半導体パターンや欠陥の観察,欠陥の検出および発生要因解析,パターンの寸法計測などが行われる。   In particular, in semiconductor manufacturing processes, applications such as semiconductor wafer inspection, pattern dimension measurement, and pattern shape measurement include scanning electron microscopes, scanning ion microscopes, and scanning transmission. A charged particle microscope such as an electron microscope (Scanning Transmission Electron Microscope) is used. In these applications, the captured images are used to observe semiconductor patterns and defects, detect defects and analyze the causes of the defects, and measure the dimensions of the patterns.

荷電粒子顕微鏡においては観察や解析等を容易に行うことができる画像を提供することが重要であり,そのためには観察・解析等の対象となる部位(以下,ROI:Region Of Interest)が見やすい画像を表示する必要がある。ROIの例としては,半導体上の欠陥が映っている領域や,観察をしたいパターンが映っている領域などが挙げられる。荷電粒子顕微鏡で撮像した画像には,複数のROIが含まれる場合もある。ROIを見やすくするために,撮像条件,撮像対象,撮像位置などを変えた複数枚の撮像画像を取得する場合も多い。また,検出器には,2次荷電粒子検出器や後方散乱粒子検出器,特定の粒子や光のみを検出する検出器,エネルギーやスピン方向などが特定の範囲内にある粒子を検出する検出器などの複数の種類があり,個々の検出器によって得られる情報が異なる。また検出器の配置位置によっても得られる情報が異なるため,同種または異種の複数の検出器を備えている顕微鏡も多い。複数の検出器があれば,1回の撮像により複数枚の撮像画像を取得することができる。   In charged particle microscopes, it is important to provide images that can be easily observed and analyzed. For this purpose, images that are easy to see the region (hereinafter referred to as ROI: Region Of Interest) to be observed and analyzed Need to be displayed. Examples of ROI include areas where defects on the semiconductor are shown, and areas where the pattern to be observed is shown. An image captured with a charged particle microscope may include multiple ROIs. In order to make the ROI easier to see, there are many cases where a plurality of captured images with different imaging conditions, imaging targets, imaging positions, etc. are acquired. The detector also includes secondary charged particle detectors, backscattered particle detectors, detectors that detect only specific particles and light, and detectors that detect particles whose energy or spin direction is within a specific range. There are several types, and the information obtained by each detector is different. In addition, since the information obtained varies depending on the position of the detector, many microscopes have a plurality of detectors of the same type or different types. If there are a plurality of detectors, a plurality of captured images can be acquired by one imaging.

視認性が高い画像を得るために,複数の撮像画像を統合する方法が提案されている。例えば特許文献1には,「荷電粒子源より放出された荷電粒子線の焦点を変更する手段と、前記試料の荷電粒子線の照射個所で得られる荷電粒子を検出する荷電粒子検出器と、当該荷電粒子検出器から出力される信号の内、前記荷電粒子線が合焦した部分の信号に基づいて前記荷電粒子線源方向から見た試料の2次元像を合成する手段を備えたことを特徴とする荷電粒子線装置」(要約書)が開示されている。
また,特許文献2には,「異なる撮像条件下で試料を撮像して該試料の複数の画像を取得し,この取得した複数の画像についてそれぞれの画像の劣化関数を生成し、取得した複数の画像と生成したそれぞれの画像に対応する劣化関数とを用いて分解能を向上させた画像を生成し、この分解能を向上させた画像を処理」する方法(要約書)が開示されている。
In order to obtain an image with high visibility, a method of integrating a plurality of captured images has been proposed. For example, Patent Document 1 discloses that "a means for changing the focal point of a charged particle beam emitted from a charged particle source, a charged particle detector for detecting charged particles obtained at a charged particle beam irradiation site of the sample, A means for synthesizing a two-dimensional image of the sample viewed from the charged particle beam source direction based on a signal of a portion where the charged particle beam is focused among signals output from the charged particle detector is provided. A charged particle beam device "(summary).
Patent Document 2 states that “a sample is imaged under different imaging conditions to acquire a plurality of images of the sample, a degradation function of each image is generated for the acquired plurality of images, and the acquired plurality of images are acquired. A method (summary) is disclosed in which an image with improved resolution is generated using an image and a degradation function corresponding to each of the generated images, and the image with improved resolution is processed.

また,ROIの視認性を向上するために撮像画像を統合する方法も提案されている。特許文献3には,「既知の欠陥モードと正常部については照合結果画像74の比重を高く、そうでない場合には検出画像71の比重を高くでき、より自然なレビュー画像82を生成する」(段落0043)パターン検査装置や、「合成対象とする画像の特徴点同士の対応関係を維持するように合成する技術」であるモーフィング手法により「より検出画像71の情報を反映した合成画像を実現することができる」パターン検査装置(段落0044)が開示されている。   A method for integrating captured images has also been proposed in order to improve ROI visibility. Patent Document 3 states that “the specific gravity of the matching result image 74 is high for known defect modes and normal portions, and the specific gravity of the detection image 71 can be increased otherwise, and a more natural review image 82 is generated” ( Paragraph 0043) “A composite image reflecting the information of the detected image 71 is realized by a pattern inspection apparatus or a morphing technique that is“ a technique of combining so as to maintain the correspondence between feature points of an image to be combined ”. A pattern inspection apparatus (paragraph 0044) is disclosed.

特許文献4には、「多層レイヤにおける下層領域やホールパターンの穴底など,試料から十分な信号量が得られにくい領域に対しても高画質である画像を撮像する」ことを目的とした荷電粒子顕微鏡装置を用いた試料の画像撮像方法であって,前記荷電粒子顕微鏡装置の検出器のゲインを第一のゲイン値に設定して前記試料に対して荷電粒子ビームの走査を行い,第一の画像を取得する第一画像取得ステップと,前記検出器のゲインを前記第一のゲイン値とは異なる第二のゲイン値に設定して前記試料に対して荷電粒子ビームの走査を行い,第二の画像を取得する第二画像取得ステップと,前記第一のゲイン値と前記第二のゲイン値を用いて,前記第一の画像と前記第二の画像を合成する画像合成ステップと、を有することを特徴とする画像撮像方法」が開示されている。   Patent Document 4 describes a charge for the purpose of “capturing a high-quality image even in a region where a sufficient signal amount cannot be obtained from a sample, such as a lower layer region in a multilayer layer or a hole bottom of a hole pattern”. A method for imaging an image of a sample using a particle microscope device, wherein the gain of a detector of the charged particle microscope device is set to a first gain value, and the sample is scanned with a charged particle beam. A first image acquisition step of acquiring a first image, a gain of the detector is set to a second gain value different from the first gain value, and the sample is scanned with a charged particle beam; A second image acquisition step of acquiring a second image; and an image combination step of combining the first image and the second image using the first gain value and the second gain value. An image characterized by having Image method "is disclosed.

特開2006−190693号公報JP 2006-190693 A 特開2010−62106号公報JP 2010-62106 A 再公表WO2010/106837号公報Republished WO2010 / 106837 特開2012−226842号公報JP 2012-226842 A

しかし,対象としているROIの見え方がROI毎に大きく異なる場合では,適切な統合の方法が異なることが問題となる。特許文献3で対象としている電子線式パターン検査装置では,ROIとして欠陥のみを対象としており,また電子線式パターン検査装置では倍率の低い画像を撮像して欠陥の検出を行うため,ROIの形状等が大きく異なることはない。特許文献4では,ROIとして暗部のみを対象としている。   However, if the target ROI looks very different for each ROI, the problem is that the appropriate integration method is different. In the electron beam pattern inspection apparatus targeted in Patent Document 3, only the defect is targeted as the ROI, and the electron beam pattern inspection apparatus captures an image with a low magnification and detects the defect. Etc. are not significantly different. In patent document 4, only a dark part is objected as ROI.

一方,例えば,測長SEMや欠陥レビューSEM等の,欠陥を高倍率(例えば10万倍以上)で撮像して測長や観察を行う荷電粒子顕微鏡では,対象としているROIの見え方がROI毎に大きく異なる場合がある。従来の方式である重み付け加算処理やモーフィング手法による画像変形のみを用いて見やすい画像を作成できる場合もあるが,ROIによっては見た目が不自然になるなど逆に見難くなってしまう場合もある。このように,見え方が大きく異なる多様なROIを対象とする場合には,従来とは異なる統合方法が必要とされる。   On the other hand, for example, a charged particle microscope, such as a length measurement SEM or defect review SEM, that captures defects at a high magnification (for example, 100,000 times or more) and measures or observes the defect, the ROI that is targeted is visible for each ROI. May vary greatly. In some cases, it is possible to create an easy-to-see image using only the conventional method of weighted addition processing or image deformation by a morphing method, but depending on the ROI, it may be difficult to see such as unnatural appearance. In this way, when targeting a variety of ROIs that look very different, a different integration method is required.

本発明では,上記のような場合においても見た目が良好な画像を生成して表示する手段を提供する。   The present invention provides means for generating and displaying a good-looking image even in the above case.

本発明では,以下の画像表示方法および前記画像表示方法を搭載した観察装置により前記課題を解決する。   In the present invention, the above-described problem is solved by the following image display method and an observation apparatus equipped with the image display method.

本発明によれば,各々のROIが見やすい画像を提供する観察装置および観察方法を提供することができる。   According to the present invention, it is possible to provide an observation apparatus and an observation method that provide an image in which each ROI is easy to see.

ROIを抽出・分類して,分類結果に基づいて複数枚の撮像画像を統合するシーケンスの一実施例図である。It is an example of a sequence for extracting and classifying ROI and integrating a plurality of captured images based on the classification result. 本発明の一実施形態である荷電粒子顕微鏡の基本構成である。1 is a basic configuration of a charged particle microscope according to an embodiment of the present invention. 複数枚の撮像画像を統合することの利点と課題を表す一実施例図である。It is an Example figure showing the advantage and subject of integrating a plurality of captured images. 2枚の撮像画像を重み付け加算により統合する例を示す一実施例図である。It is an Example figure which shows the example which integrates two picked-up images by weighted addition. 2枚の撮像画像を重み付け加算以外の方法により統合する例を示す一実施例図である。It is an Example figure which shows the example which integrates two picked-up images by methods other than weighted addition. 2枚の撮像画像を統合する,図4,5とは別の例を示す一実施例図である。It is an Example figure which shows an example different from FIG.4, 5 which integrates two captured images. 異なる形状に映った2枚の撮像画像を統合する処理の一実施例図である。It is an Example figure of the process which unifies two picked-up images reflected in a different shape. 倍率の異なる2枚の撮像画像を統合する処理の一実施例図である。It is an Example figure of the process which integrates two captured images from which magnification differs. ROIおよびその周辺の領域の形状変形を行いながら統合する処理の一実施例図である。It is an Example figure of the process integrated while performing shape deformation of ROI and its peripheral area | region. 異なる領域を撮像した2枚の画像を統合する処理の一実施例図である。It is an Example figure of the process which integrates two images which imaged a different area | region. 2枚の撮像画像に含まれるROIを抽出する一実施例図である。It is an Example figure which extracts ROI contained in two captured images. ROI抽出処理を表す図11とは異なる一実施例図である。FIG. 12 is an embodiment diagram different from FIG. 11 showing ROI extraction processing. 図1のステップ103に相当するROI分類処理のフローを示す一実施例図である。FIG. 2 is an example diagram showing a flow of ROI classification processing corresponding to step 103 in FIG. 1. ROI内に存在する複数の対象物の高さ関係を識別する処理の一実施例図である。It is an Example figure of the process which identifies the height relationship of the several target object which exists in ROI. ROIが上層パターン領域,下層領域,パターン側壁領域のうち,何れの領域に属するかを識別する処理を表す一実施例図である。It is an Example figure showing the process which identifies which area | region ROI belongs to among the upper layer pattern area | region, a lower layer area | region, and a pattern side wall area | region. 分類結果に応じて統合方法を制御する処理を表す一実施例図である。It is an Example figure showing the process which controls an integration method according to a classification result. 分類結果に応じて統合方法を制御する処理を表す一実施例図である。It is an Example figure showing the process which controls an integration method according to a classification result. 分類結果毎の統合方法を設定するためのユーザインターフェイスを表す一実施例図である。It is an Example figure showing the user interface for setting the integration method for every classification result. 欠陥の高倍画像を自動で撮像してその統合画像を求めるシーケンスの一実施例図である。It is an Example figure of the sequence which image | photographs the high magnification image of a defect automatically, and calculates | requires the integrated image. 図6における明度調整処理の詳細を表す一実施例図である。It is an Example figure showing the detail of the brightness adjustment process in FIG.

本発明は,荷電粒子を試料に照射して画像を取得する走査荷電粒子顕微鏡に係り,特に視認性の高い画像を表示するための画像表示方法およびその装置を提供することにある。以下,本発明に係る実施の形態について図面を用いて説明する。   The present invention relates to a scanning charged particle microscope that acquires an image by irradiating a sample with charged particles, and provides an image display method and apparatus for displaying an image with particularly high visibility. Embodiments according to the present invention will be described below with reference to the drawings.

図1は,ROIを抽出・分類して,分類結果に基づいて複数枚の撮像画像を統合するシーケンスの一実施例図である。まず,ステップ101で,複数枚の撮像画像を取得する。次に,ステップ102で,前記撮像画像からROIを抽出し,ステップ103でROIを分類する。次に,ステップ104で,前記ROIの分類結果に基づいて,複数枚の撮像画像を統合する,すなわち,複数枚の撮像画像における同一画素またはその近傍領域の画素の情報を用いて,画素毎に明度値を求めた1枚の画像(統合画像)を生成する。最後に,ステップ105で,統合画像を表示する。   FIG. 1 is a diagram showing an example of a sequence for extracting and classifying ROI and integrating a plurality of captured images based on the classification result. First, in step 101, a plurality of captured images are acquired. Next, in step 102, ROI is extracted from the captured image, and in step 103, ROI is classified. Next, in step 104, based on the ROI classification result, a plurality of captured images are integrated, that is, for each pixel using information on the same pixel in the plurality of captured images or pixels in the vicinity thereof. A single image (integrated image) for which the brightness value is obtained is generated. Finally, in step 105, the integrated image is displayed.

対象としているROIの見え方は,ROI毎に大きく異なる場合が多い。これに対し,撮像画像に含まれるROIを分類した後,その結果に応じて統合の方法を制御することにより,各々のROIに適した方法で統合することができ,常にROIが見やすい画像を提供することが可能になる。   In many cases, the target ROI looks very different for each ROI. On the other hand, by classifying the ROI included in the captured image and then controlling the integration method according to the result, it is possible to integrate the ROI in a method suitable for each ROI and always provide an image that is easy to see the ROI. It becomes possible to do.

図2は,本発明の一実施形態である荷電粒子顕微鏡の基本構成である。荷電粒子顕微鏡は,例えば,荷電粒子画像取得装置201,入出力部221,制御部222,処理部223,記憶部224,ROI抽出部225,ROI分類部226,および画像統合部227等から構成される。荷電粒子画像取得装置201では,荷電粒子銃202から荷電粒子ビーム203を発生し,前記荷電粒子ビーム203をコンデンサレンズ204や対物レンズ205に通すことにより試料206の表面に集束する。次に,試料206から発生する粒子を検出器208で検出することにより,画像を取得する。画像は,記憶部224に保存される。検出器208は複数個備わっていても良く,さらに,電子を検出する検出器と電磁波を検出する検出器のように異なる粒子を検出する検出器であったり,エネルギーやスピン方向が特定の範囲内にある粒子のみを検出する検出器であったり,2次荷電粒子検出器と後方散乱荷電粒子検出器のように異なる性質の粒子を検出する検出器であっても良い。同じ性質の粒子を検出する検出器が異なる配置位置に複数備わっていても良い。検出器が複数個備わっている場合には,通常1回の撮像で,画像を複数枚取得することができる。撮像条件を変えて2回以上撮像をして,複数枚の画像を取得しても良い。試料206はステージ207に接しており,ステージ207を移動することにより,試料の任意の位置における画像の取得が可能である。また,ビーム偏向器209で荷電粒子ビーム203の向きを2次元的に変えることにより,荷電粒子ビームを試料上に走査することができる。   FIG. 2 shows a basic configuration of a charged particle microscope according to an embodiment of the present invention. The charged particle microscope includes, for example, a charged particle image acquisition device 201, an input / output unit 221, a control unit 222, a processing unit 223, a storage unit 224, an ROI extraction unit 225, an ROI classification unit 226, an image integration unit 227, and the like. The In the charged particle image acquisition apparatus 201, a charged particle beam 203 is generated from a charged particle gun 202, and the charged particle beam 203 is focused on the surface of a sample 206 by passing through a condenser lens 204 and an objective lens 205. Next, an image is acquired by detecting particles generated from the sample 206 with the detector 208. The image is stored in the storage unit 224. A plurality of detectors 208 may be provided. Furthermore, the detector 208 may be a detector that detects different particles, such as a detector that detects electrons and a detector that detects electromagnetic waves, or the energy or spin direction is within a specific range. Or a detector that detects particles having different properties such as a secondary charged particle detector and a backscattered charged particle detector. A plurality of detectors that detect particles of the same property may be provided at different positions. When a plurality of detectors are provided, a plurality of images can be acquired usually by one imaging. A plurality of images may be acquired by changing the imaging conditions and imaging twice or more. The sample 206 is in contact with the stage 207. By moving the stage 207, an image at an arbitrary position of the sample can be acquired. Further, the charged particle beam can be scanned onto the sample by changing the direction of the charged particle beam 203 two-dimensionally by the beam deflector 209.

入出力部221では,画像撮像位置や撮像条件の入力,統合後の画像の出力などを行う。制御部222では,撮像装置の制御として,荷電粒子銃202等に印加する電圧や,コンデンサレンズ204および対物レンズ205の焦点位置の調整,ステージ207の移動等を制御する。また,制御部222は,入出力部221,処理部223,記憶部224,ROI抽出部225,ROI分類部226の制御も行う。処理部223では,各種の処理,例えば,荷電粒子ビーム203の焦点を試料206の表面に合わせるために必要な自動焦点合わせに関する処理などを行う。記憶部224では,複数枚の撮像画像,統合後の画像,ROI抽出結果,ROI分類結果,各種処理パラメータ等を保存する。ROI抽出部225では,取得した複数枚の撮像画像からROIを抽出する。ROI分類部226では,抽出したROIの各々に対して分類を行う。画像統合部227では,複数枚の撮像画像を統合して1枚の統合後の画像を生成する。この際,ROIの分類結果に基づいて,統合方法を制御する。   The input / output unit 221 inputs an image capturing position and image capturing conditions, and outputs an image after integration. The control unit 222 controls the voltage applied to the charged particle gun 202, the adjustment of the focal positions of the condenser lens 204 and the objective lens 205, the movement of the stage 207, and the like as control of the imaging device. The control unit 222 also controls the input / output unit 221, the processing unit 223, the storage unit 224, the ROI extraction unit 225, and the ROI classification unit 226. The processing unit 223 performs various types of processing, for example, processing related to automatic focusing necessary for focusing the charged particle beam 203 on the surface of the sample 206. The storage unit 224 stores a plurality of captured images, images after integration, ROI extraction results, ROI classification results, various processing parameters, and the like. The ROI extraction unit 225 extracts ROI from the acquired plurality of captured images. The ROI classification unit 226 classifies each extracted ROI. The image integration unit 227 generates a single integrated image by integrating a plurality of captured images. At this time, the integration method is controlled based on the ROI classification result.

図3は,複数枚の撮像画像を統合することの利点および課題を表す一実施例図である。統合画像303は,2個の2次荷電粒子検出器で取得した画像(2次荷電粒子像)301と302を統合して得られた画像の例である。画像301と画像302は,試料上の同一の位置を撮像して得られたものとする。これらの撮像画像は,異なる位置に配置した複数個の検出器を用いて1回のスキャンで得られた画像であっても良いし,撮像条件を変えて撮像した画像であっても良い。画像301には,欠陥311とパターン314が映っているが,欠陥311はコントラストが低い(図3において,点線で囲まれた領域はコントラストが低いことを表す)。画像302には,311と同じ欠陥が312に映っているが,そのコントラストは画像301に比べて高い。一方,314と同じパターンが315に映っており,そのコントラストは低い。これらの撮像画像を統合して,欠陥とパターンのコントラストが共に高い画像を生成したい。このためには,画像301と302を重み付け加算する方法が適している。具体的には,画像302から欠陥領域312を抽出した後,欠陥領域に対しては画像302の重みを大きくして,それ以外の領域に対しては画像301の重みを大きくして重み付け加算を行えば良い。   FIG. 3 is an example diagram showing advantages and problems of integrating a plurality of captured images. The integrated image 303 is an example of an image obtained by integrating images (secondary charged particle images) 301 and 302 acquired by two secondary charged particle detectors. It is assumed that the image 301 and the image 302 are obtained by imaging the same position on the sample. These captured images may be images obtained by a single scan using a plurality of detectors arranged at different positions, or may be images captured by changing the imaging conditions. The image 301 shows a defect 311 and a pattern 314, but the defect 311 has a low contrast (in FIG. 3, the region surrounded by a dotted line indicates a low contrast). In the image 302, the same defect as 311 is shown in 312, but the contrast is higher than that of the image 301. On the other hand, the same pattern as 314 is shown in 315, and the contrast is low. I want to integrate these captured images and generate images with high contrast between defects and patterns. For this purpose, a method of weighting and adding the images 301 and 302 is suitable. Specifically, after extracting the defective area 312 from the image 302, the weight of the image 302 is increased for the defective area, and the weight of the image 301 is increased for the other areas, and weighted addition is performed. Just do it.

統合画像306は,後方散乱荷電粒子検出器で取得した陰影が付いた画像(陰影像)304と2次荷電粒子像305を統合して得られた画像の例である。画像304と画像305は,試料上の同一の位置を撮像して得られたものである。2次荷電粒子像305には,パターン322と,スクラッチ欠陥(試料表面に生じた傷)325が映っているが,スクラッチ欠陥325はコントラストが低く,視認性が悪い。これに対し,スクラッチ欠陥が明瞭に映った統合画像を生成したい。陰影像304ではスクラッチ欠陥が明瞭に見えるため,この情報を統合すれば良い。しかし,統合画像303を生成したときと同様の方法,すなわち,スクラッチ欠陥領域324を抽出して,その領域では画像304の重みを大きくし,それ以外の領域では画像305の重みを大きくした重み付け加算による統合では,適切な画像は生成できない。このような重み付け加算により求めた統合画像の例を307に示す。パターン327およびスクラッチ欠陥328は共に明瞭に見えているが,スクラッチ欠陥領域内ではパターン327が映っていないため,不自然な画像になってしまう。統合画像306のように,スクラッチ欠陥領域内にも,パターンが映っているような画像を生成するためには,単純な重み付け加算ではない統合方法を用いる必要がある。以上を鑑みると,撮像画像301,302の場合においては,重み付け加算による統合を行い,撮像画像304,305の場合においては,重み付け加算以外の統合を行うことが望ましい。本発明では,ROI(この例では欠陥領域)の種類に応じて適した統合方法を選択することにより,良好な統合画像を生成する。   The integrated image 306 is an example of an image obtained by integrating the shaded image (shadow image) 304 and the secondary charged particle image 305 acquired by the backscattered charged particle detector. Images 304 and 305 are obtained by imaging the same position on the sample. The secondary charged particle image 305 shows a pattern 322 and a scratch defect (scratches generated on the sample surface) 325, but the scratch defect 325 has low contrast and poor visibility. On the other hand, I would like to generate an integrated image that clearly shows scratch defects. Since the scratch defect can be clearly seen in the shadow image 304, this information may be integrated. However, the same method as when the integrated image 303 is generated, that is, the scratch defect area 324 is extracted, the weight of the image 304 is increased in that area, and the weight of the image 305 is increased in the other areas. The integration by cannot produce an appropriate image. An example of the integrated image obtained by such weighted addition is shown in 307. Although both the pattern 327 and the scratch defect 328 are clearly seen, the pattern 327 is not reflected in the scratch defect area, so that an unnatural image is obtained. In order to generate an image in which a pattern appears in the scratch defect area as in the integrated image 306, it is necessary to use an integration method that is not simple weighted addition. In view of the above, it is desirable to perform integration by weighted addition in the case of the captured images 301 and 302, and to perform integration other than weighted addition in the case of the captured images 304 and 305. In the present invention, a good integrated image is generated by selecting an integration method suitable for the type of ROI (in this example, a defective area).

次に,図4〜図10を用いて,図1のステップ104に相当する統合処理について説明する。ROIの種類毎に適切な統合処理が異なることについて具体例を用いて示すことで,ROIの分類結果に基づいて統合処理を制御することができれば画質が良好な画像が得られることを示す。ROIの分類方法については図13〜図15,統合処理の制御方法については図16〜図18を用いて後述する。図4〜図10では,予め,ステップ101〜103の処理である,複数枚の画像を取得して,ROIを抽出・分類する処理は施してあるものとする。   Next, an integration process corresponding to step 104 in FIG. 1 will be described with reference to FIGS. By showing using a specific example that the appropriate integration processing differs for each type of ROI, it is shown that an image with good image quality can be obtained if the integration processing can be controlled based on the ROI classification result. The ROI classification method will be described later with reference to FIGS. 13 to 15, and the integration processing control method will be described later with reference to FIGS. 16 to 18. 4 to 10, it is assumed that a process of acquiring a plurality of images and extracting and classifying ROI, which is the process of steps 101 to 103, is performed in advance.

図4は,2枚の撮像画像を重み付け加算により統合する例を示す一実施例図である。画像401および402は,図3における画像301および302と同じである。統合の際,ROI以外の領域において主に用いる画像(以下,ベース画像と呼ぶ)を定める。この例では,画像401をベース画像とする。また,この例では,欠陥412が映っている領域をROIとする。以下,ベース画像には画像の周囲を太枠で示し,またROIも同様に周囲を太枠で示す。ROIの分類結果として,例えばパターン上の異物という結果を得る。ROIは,画像401ではコントラストが低く,画像402では高い。そこで統合処理404では,まず統合比率算出処理405にて,ROIにおいて画像402の重みを大きくし,ROI以外の領域において画像401の重みを大きくするように重みを設定し,荷重和処理406により重み付け加算を行う。これにより,統合画像403を得る。   FIG. 4 is a diagram illustrating an example in which two captured images are integrated by weighted addition. Images 401 and 402 are the same as images 301 and 302 in FIG. When integrating, an image mainly used in the region other than ROI (hereinafter referred to as a base image) is determined. In this example, the image 401 is a base image. In this example, an area where the defect 412 is shown is ROI. In the following, the perimeter of the image is indicated by a thick frame in the base image, and the perimeter of the ROI is similarly indicated by a thick frame. As the ROI classification result, for example, a result of foreign matter on the pattern is obtained. The ROI has a low contrast in the image 401 and is high in the image 402. Therefore, in the integration process 404, first, in the integration ratio calculation process 405, the weight is set so that the weight of the image 402 is increased in the ROI and the weight of the image 401 is increased in the region other than the ROI. Add. Thereby, the integrated image 403 is obtained.

なお,統合画像は複数枚あっても良い。例えば,画像401をベースとして生成した統合画像と,画像402をベースとして生成した統合画像を出力しても良い。また,撮像画像は3枚以上あっても良い。荷重和処理406では重み付け加算を行う例を示したが,重み付け加算に限らない。例えば,2枚の画像の明度値に対してある関数f(例えば対数関数)を適用した後で重み付け加算を計算し,最後にfの逆関数を適用するような計算方法でも良い。結合後の画像は,グレースケールの画像である必要はなく,カラー画像であっても良い。例えばROIは色を付けて見やすく表示し,ROI以外の領域はグレースケール表示を行なっても良い。この場合には,統合比率算出処理405において,カラー画像を表す各成分(例えばRed,Green,Blue)についてそれぞれ重みを計算し,荷重和処理406では成分毎に重み付け加算処理を行えば良い。   There may be a plurality of integrated images. For example, an integrated image generated based on the image 401 and an integrated image generated based on the image 402 may be output. Further, there may be three or more captured images. Although an example in which weighted addition is performed in the load sum processing 406 has been shown, it is not limited to weighted addition. For example, a calculation method may be used in which a weighted addition is calculated after applying a function f (for example, a logarithmic function) to the brightness values of two images, and finally an inverse function of f is applied. The combined image does not have to be a gray scale image, and may be a color image. For example, the ROI may be displayed with a color for easy viewing, and the area other than the ROI may be displayed in grayscale. In this case, the integrated ratio calculation process 405 calculates the weight for each component (for example, Red, Green, Blue) representing the color image, and the load sum process 406 performs the weight addition process for each component.

図5は,2枚の撮像画像を重み付け加算以外の方法により統合する例を示す一実施例図である。画像501および502は,図3における画像304および305と同じである。ベース画像は502とする。すなわち,2次荷電粒子像502に対して,陰影像501のスクラッチ欠陥512を統合する。ROIの分類結果として,例えば凹凸欠陥といった結果を得る。統合処理509では,まず陰影像501から,パターン511等に関する情報を取り除きスクラッチ欠陥512を表す凹凸情報のみを抽出する。この抽出を行うため,まず欠陥がない画像を推定する処理503を行い,画像504のようなパターン513の情報を抽出する。この処理では,例えば2次荷電粒子像502を用いてパターン情報を抽出しても良いし,欠陥を含まない他の場所を撮像した画像や,設計データとの比較を用いて抽出しても良い。ROI内の画素を削除した後,インペインティングなどの技術を用いて推定を行なっても良い。次に,ROI差分情報を抽出する処理505にて,陰影像501と画像504の差分を計算することにより,514のようにスクラッチ欠陥を表す凹凸情報のみが映った画像506を得る。その後,荷重和処理507により,2次荷電粒子像502と画像506との重み付け加算を行うことで,統合画像508を生成する。画像508では,パターン515の上に,ROIの凹凸情報516のみが重畳されており,自然な統合ができている。図4の例で示した重み付け加算による統合方法と,図5の例で示した統合方法を使い分けるためには,欠陥412のように不透明な欠陥か,欠陥512のように欠陥の下側にあるパターンが映った透明な欠陥かを判別できるような分類を行えば良い。なお,荷重和処理507は,図4における統合比率算出処理405と荷重和処理406を併せた処理に対応している。以降,説明の簡略化のために荷重和処理には統合比率算出処理が含まれているものとする。   FIG. 5 is a diagram illustrating an example in which two captured images are integrated by a method other than weighted addition. Images 501 and 502 are the same as images 304 and 305 in FIG. The base image is 502. That is, the scratch defect 512 of the shadow image 501 is integrated with the secondary charged particle image 502. As the ROI classification result, for example, a result such as an uneven defect is obtained. In the integration process 509, first, information on the pattern 511 and the like is removed from the shadow image 501, and only the unevenness information representing the scratch defect 512 is extracted. In order to perform this extraction, first, processing 503 for estimating an image having no defect is performed, and information on the pattern 513 such as the image 504 is extracted. In this processing, for example, pattern information may be extracted using the secondary charged particle image 502, or may be extracted using an image obtained by imaging another place not including a defect, or comparison with design data. . After deleting the pixels in the ROI, estimation may be performed using techniques such as inpainting. Next, in a process 505 for extracting ROI difference information, a difference between the shadow image 501 and the image 504 is calculated, thereby obtaining an image 506 in which only unevenness information representing a scratch defect is shown as 514. Thereafter, the weighted addition of the secondary charged particle image 502 and the image 506 is performed by the load sum processing 507 to generate an integrated image 508. In the image 508, only the ROI unevenness information 516 is superimposed on the pattern 515, and natural integration is achieved. In order to selectively use the integration method by weighted addition shown in the example of FIG. 4 and the integration method shown in the example of FIG. 5, the defect is an opaque defect such as the defect 412 or is located below the defect such as the defect 512. Classification may be performed so that it can be determined whether the defect is a transparent defect in which the pattern is reflected. Note that the load sum process 507 corresponds to a process that combines the integration ratio calculation process 405 and the load sum process 406 in FIG. 4. Hereinafter, for simplification of description, it is assumed that the load sum process includes an integrated ratio calculation process.

図5の画像501および502は,例えばエネルギーが高い粒子および低い粒子を検出して得られた画像であっても良い。検出する粒子のエネルギーが異なれば,その粒子に含まれる情報は変わるため,画像も大きく変わる場合がある。または,異なる種類の粒子を検出した画像であっても良い。   The images 501 and 502 in FIG. 5 may be images obtained by detecting particles having high energy and particles having low energy, for example. If the energy of the particles to be detected is different, the information contained in the particles changes, and the image may change greatly. Alternatively, an image in which different types of particles are detected may be used.

図6は,2枚の撮像画像を統合する,図4,図5とは別の例を示す一実施例図である。陰影像601および2次荷電粒子像602の2枚の画像を処理604により統合し,画像603を得る。ROIの分類結果として,例えば影領域にある明度が低い欠陥といった結果を得る。画像601では,パターン611が映っている。領域612はパターンの影の部分に対応しており,影ではない類似領域に比べて明度値が低い。一方,画像602では,画像601の影の領域内にあたる位置に,ROIである欠陥613が映っており,さらに欠陥の明度値は周囲の領域に比べて低い。画像602ではパターンの影は見えない。2枚の画像を統合したいが,明暗関係が反転すると一般に不自然な画像に見える。そこで,明暗関係を維持した統合を行うために,まず画像601,602の各々について明度調整処理605を行った後,荷重和処理607を行う。明度調整処理605では,画像601と602の両方の情報に基づいて,各々の画像の明度を調整する。荷重和の前に明度調整を行うことにより,画像603では,周囲の領域より明度値が低い影の部分614を残しつつ,さらに欠陥615の明度値がより低くなるように全体の明度バランスを調整する。単純な重み付け加算のみによる統合では,高いコントラストを維持したまま明暗関係を保つことは一般に不可能であるが,明度調整処理と組み合わせることにより,これを可能とする。   FIG. 6 is an example diagram showing an example different from FIGS. 4 and 5 in which two captured images are integrated. Two images of the shadow image 601 and the secondary charged particle image 602 are integrated by processing 604 to obtain an image 603. As a result of ROI classification, for example, a defect such as a defect with low brightness in a shadow area is obtained. In the image 601, a pattern 611 is shown. A region 612 corresponds to a shadow portion of the pattern and has a lightness value lower than that of a similar region that is not a shadow. On the other hand, in the image 602, a defect 613 that is ROI is shown at a position corresponding to the shadow area of the image 601, and the brightness value of the defect is lower than that of the surrounding area. In the image 602, the shadow of the pattern is not visible. I want to merge two images, but when the light-dark relationship is reversed, it generally looks unnatural. Therefore, in order to perform integration while maintaining the light / dark relationship, first, the brightness adjustment processing 605 is performed on each of the images 601 and 602, and then the load sum processing 607 is performed. In the brightness adjustment processing 605, the brightness of each image is adjusted based on information on both the images 601 and 602. By adjusting the brightness before the load sum, in the image 603, the overall brightness balance is adjusted so that the brightness value of the defect 615 is further lowered while leaving a shadow portion 614 having a brightness value lower than that of the surrounding area. To do. In integration by only simple weighted addition, it is generally impossible to maintain a light-dark relationship while maintaining high contrast, but this can be achieved by combining with lightness adjustment processing.

図20は図6における明度調整処理605の詳細を表す一実施例図である。図6と同一の画像または処理については,図6と同じ番号で示してある。以下,同一の画像や処理等を表す場合には同一の番号を振って示すものとする。グラフ2001および2002は,それぞれ画像601および602の線分ABにおける明度値である。破線2010は,説明のための補助線である。影領域2011の明度値は,その右側の領域の明度値に比べて低くなっている。また,2次荷電粒子像のROI2012の明度値も,その右側の領域の明度値に比べて低くなっている。2次荷電粒子像の領域2013の明度値は,陰影像の同じ領域の明度値に比べて高い。グラフ2003および2004は,明度調整処理605を行った後の線分ABにおける明度値である。   FIG. 20 is a diagram showing an example of the details of the brightness adjustment processing 605 in FIG. The same image or process as in FIG. 6 is denoted by the same number as in FIG. Hereinafter, when the same image or process is represented, the same number is assigned. Graphs 2001 and 2002 are lightness values in line segments AB of images 601 and 602, respectively. A broken line 2010 is an auxiliary line for explanation. The brightness value of the shadow area 2011 is lower than the brightness value of the right area. Further, the brightness value of the ROI 2012 of the secondary charged particle image is also lower than the brightness value of the region on the right side thereof. The brightness value of the region 2013 of the secondary charged particle image is higher than the brightness value of the same region of the shadow image. Graphs 2003 and 2004 are lightness values in the line segment AB after the lightness adjustment processing 605 is performed.

事前に行うROI分類結果により,ROIは影領域に存在する明度が低い欠陥であることがわかっている。しかし,陰影像の影領域の明度値が低いため,画像601の上にそのまま2次荷電粒子像のROIを統合しても十分なコントラストが得られない。そこで,まず明度調整処理605では,陰影像の影領域2014の明度値が高くなるように調整する。次に,2次荷電粒子像のROI周辺領域2017の明度値を,陰影像の同じ領域(すなわち影領域2014)の明度値に合わせる。また,ROI2015とその周辺領域との明度差を一定に保つために,ROI2015の明度値も低くする。さらに,荷重和処理607において不自然な結果になることを防ぐために,領域2016等の明度値を陰影像の同じ領域の明度値に合わせても良い。グラフ2005は,統合画像に対する線分ABにおける明度値である。グラフ2005が示すように,明度調整処理605を行うことにより,ROIおよびその周辺領域のコントラストを維持した上で,ROI2018の明度値がその周辺の明度値に比べて低くなるような統合画像を得ることができる。   From the results of ROI classification performed in advance, it is known that ROI is a defect with low brightness existing in the shadow area. However, since the brightness value of the shadow area of the shadow image is low, sufficient contrast cannot be obtained even if the ROI of the secondary charged particle image is integrated on the image 601 as it is. In lightness adjustment processing 605, therefore, the lightness value of the shadow region 2014 of the shadow image is adjusted to be high. Next, the brightness value of the ROI peripheral region 2017 of the secondary charged particle image is matched with the brightness value of the same region of the shadow image (that is, the shadow region 2014). In addition, the brightness value of the ROI 2015 is also lowered in order to keep the brightness difference between the ROI 2015 and the surrounding area constant. Further, in order to prevent an unnatural result in the load sum processing 607, the brightness value of the region 2016 or the like may be matched with the brightness value of the same region of the shadow image. A graph 2005 is a lightness value in the line segment AB with respect to the integrated image. As shown in the graph 2005, by performing the brightness adjustment processing 605, an integrated image is obtained in which the brightness value of the ROI 2018 is lower than the brightness value of the surrounding area while maintaining the contrast of the ROI and the surrounding area. be able to.

画像の各領域の明度値は,複数の撮像画像の間で大きく異なる場合がある。例えば,異なる種類の検出器を用いた場合は,各々の検出器にて検出している粒子の種類や特徴が異なるため,明度値は一般に大きく異なる。また,検出器の配置位置によっても,各検出器に到達する粒子の個数が変化するため明度値は異なる。このような複数の撮像画像を統合する際,重み付け加算では明暗が逆転するため不自然に見える場合がある。これに対し,本発明では,明度調整を行うことによりROIとROIの周辺領域との明暗関係を保存して統合する。これにより,明暗の逆転を抑えた上での統合を可能とする。   The brightness value of each region of the image may vary greatly between the plurality of captured images. For example, when different types of detectors are used, the brightness values generally differ greatly because the types and characteristics of the particles detected by each detector are different. Also, the brightness value varies depending on the position of the detector, because the number of particles that reach each detector changes. When such a plurality of captured images are integrated, the weighted addition may reverse the brightness and may appear unnatural. On the other hand, in the present invention, the brightness relationship between ROI and the surrounding area of ROI is preserved and integrated by adjusting the brightness. As a result, integration is possible while suppressing the reversal of light and dark.

図7は,異なる形状に映った2枚の撮像画像を統合する処理の一実施例図である。画像701および702の2枚の画像を処理704により統合し,画像703を得る。被撮像物は異物を含む多層パターンである。例えば,画像701は陰影像であり,画像702は2次荷電粒子像である。ROIの分類結果として,例えば712のROIは上層領域の欠陥,713のROIは下層領域といった結果を得る。画像701では,上層パターン711および欠陥712が鮮明に映っているが,下層では十分なコントラストが得られていない。一方,画像702では,下層領域713が鮮明に映っているが,上層パターンや欠陥の視認性は悪い。陰影像では下層領域においては2次荷電粒子像に比べて十分な数の荷電粒子を検出できずコントラストが低くなる傾向があるため,下層領域は2次荷電粒子像のほうが視認性が高い場合が多い。画像701に対して,画像702の下層領域の領域を統合したい。しかし,画像701と画像702では,下層領域の幅が異なっており,画像701のほうが幅が狭い。そこで,まず画像701と画像702を用いて変形量算出処理708を行う。変形量は,画素毎または領域毎に算出する。次に,画像702に対して形状変形処理705を行い,下層領域の幅を画像701に合わせた画像707を生成する。その後,画像701と707との荷重和処理706により統合画像703を生成する。変形量算出処理708および形状変形処理705では,上層パターンと下層領域の境界のみでなく,下層領域と欠陥712の境界においても繋ぎ目が自然になるように処理を行う。なお,本実施例では画像702に対して形状変形を行なって下層領域の幅を画像701に合わせたが,画像701に対して形状変形を行なって下層領域の幅を画像702に合わせても良い。   FIG. 7 is a diagram illustrating an example of processing for integrating two captured images reflected in different shapes. Two images 701 and 702 are integrated by processing 704 to obtain an image 703. The object to be imaged is a multi-layer pattern including foreign matter. For example, the image 701 is a shadow image, and the image 702 is a secondary charged particle image. As the ROI classification result, for example, the result is that the ROI of 712 is a defect in the upper layer region, and the ROI of 713 is the lower region. In the image 701, the upper layer pattern 711 and the defect 712 are clearly shown, but sufficient contrast is not obtained in the lower layer. On the other hand, in the image 702, the lower layer region 713 is clearly shown, but the visibility of the upper layer pattern and the defect is poor. In the shadow image, a sufficient number of charged particles cannot be detected in the lower layer area compared to the secondary charged particle image, and the contrast tends to be low. Therefore, the secondary charged particle image may have higher visibility in the lower layer area. Many. I want to integrate the lower region of the image 702 into the image 701. However, the width of the lower layer region is different between the image 701 and the image 702, and the width of the image 701 is narrower. Therefore, first, a deformation amount calculation process 708 is performed using the image 701 and the image 702. The amount of deformation is calculated for each pixel or region. Next, a shape transformation process 705 is performed on the image 702 to generate an image 707 in which the width of the lower layer region is matched with the image 701. Thereafter, an integrated image 703 is generated by the load sum processing 706 of the images 701 and 707. In the deformation amount calculation processing 708 and the shape deformation processing 705, processing is performed so that the joint is natural not only at the boundary between the upper layer pattern and the lower layer region but also at the boundary between the lower layer region and the defect 712. In this embodiment, the shape of the image 702 is deformed to adjust the width of the lower layer area to the image 701. However, the image 701 may be deformed to adjust the width of the lower layer area to the image 702. .

画像701と702の例のように,複数枚の撮像画像の間には画像歪みのため,画素毎に映っているものが異なることがある。パターンの境界部において,画像701では上層パターンの情報が支配的であり,画像702では下層領域の情報が支配的であるため,下層領域の幅が異なって見える。このため,形状を適切に変形しなければ,画像を統合した際に,その境界が不連続になるなどの不具合が発生する。このため,場合によってはROIのみでなくその周辺領域も変形する必要がある。これに対し,画像歪みのある撮像画像の場合にも自然に統合を行うことができる。   As in the examples of the images 701 and 702, what is reflected for each pixel may be different between a plurality of captured images due to image distortion. At the pattern boundary, the upper layer pattern information is dominant in the image 701, and the lower layer information is dominant in the image 702, so the width of the lower layer area appears to be different. For this reason, if the shape is not appropriately deformed, problems such as discontinuity of the boundary occur when the images are integrated. For this reason, it is necessary to transform not only the ROI but also the surrounding area. On the other hand, integration can be naturally performed even in the case of a captured image with image distortion.

図8は,倍率の異なる2枚の撮像画像を統合する処理の一実施例図である。相対的に高い倍率で撮像した画像801に対して,処理804により,相対的に低い倍率で撮像した画像802の欠陥812を統合し,画像803を得ることを考える。まず,拡大/縮小処理805により,後段の統合において必要となるROIまたはその周辺の領域を拡大または縮小する。拡大率は,画像801と802の撮像倍率から計算できる。または,両画像に映っているもの,例えばパターン813とパターン814,または欠陥811と欠陥812のサイズの比から計算しても良い。その後,荷重和処理807により,画像801と拡大または縮小した画像806との重み付け加算を行うことで,画像801と同じ倍率の画像803を生成する。   FIG. 8 is a diagram illustrating an example of processing for integrating two captured images having different magnifications. Consider processing 804 to integrate the defect 812 of the image 802 captured at a relatively low magnification and obtain an image 803 with respect to the image 801 captured at a relatively high magnification. First, the enlargement / reduction processing 805 enlarges or reduces the ROI or its surrounding area that is required in the subsequent integration. The enlargement ratio can be calculated from the imaging magnification of the images 801 and 802. Or you may calculate from what is reflected in both images, for example, the ratio of the size of the pattern 813 and the pattern 814, or the defect 811 and the defect 812. After that, an image 803 having the same magnification as the image 801 is generated by performing weighted addition of the image 801 and the enlarged or reduced image 806 by the load sum processing 807.

本実施例では,画像801の倍率に合わせた画像803を生成したが,画像801および画像802のどちらとも異なる倍率の画像を生成しても良い。例えば,画像801よりも高い倍率を持つ画像を生成するには,画像801,802に対してそれぞれ対応する拡大率で拡大処理を行った後に,重み付け加算を行えば良い。   In the present embodiment, the image 803 matched with the magnification of the image 801 is generated, but an image with a magnification different from both the image 801 and the image 802 may be generated. For example, in order to generate an image having a higher magnification than the image 801, the image 801 and 802 may be subjected to enlargement processing at a corresponding enlargement rate, and then weighted addition may be performed.

図9は,ROIおよびその周辺の領域の形状変形を行いながら統合する処理の一実施例図である。画像901はチルトさせずに撮像した画像,画像902はチルト画像である。欠陥911がパターン912の側壁部913に存在しており,画像901では欠陥が見辛い。チルト画像902では,側壁部915が画像上の広い領域に対応しており,欠陥914の視認性は画像901に比べて良い。この2枚の画像を処理904により統合して,欠陥916が明瞭に見える画像903を作成する。ROIの分類結果として,例えば側壁部にある異物といった結果を得る。画像903はチルトをさせない画像901と同様の見た目になるように,画像901をベース画像とする。統合処理904では,まず形状変形処理905および906により画像901および902の各々について形状変形を行った後,荷重和処理909を行う。画像901では側壁領域が狭すぎるため,画像902の側壁部のサイズを画像901に合わせてから重み付け加算を行うような統合方法では,欠陥914が鮮明な画像を生成することは困難である。このため,形状変形処理を画像901に対しても行い,側壁領域を広げている。画像907,908は,それぞれ,形状変形処理905,906の出力である。画像907では,画像901に対して側壁部918の領域が広がり,欠陥917のサイズも大きくなっている。ただし,画像907は画像901から画像処理により作成したものであるため,欠陥部の画質は悪い。そこで,画像908との重み付け加算により欠陥の画質を高める。形状変形処理906では,画像908の側壁部920および欠陥919の位置および領域を画像907に合わせるように形状変形を行う。なお,画像901と902では位置ずれが発生する場合も多い。このため,少なくとも片方の画像について前処理として位置ずれ補正を行なっても良い。   FIG. 9 is a diagram illustrating an example of processing for integrating ROI and its surrounding area while deforming the shape. An image 901 is an image captured without being tilted, and an image 902 is a tilt image. A defect 911 is present on the side wall 913 of the pattern 912, and the defect is difficult to see in the image 901. In the tilt image 902, the side wall portion 915 corresponds to a wide area on the image, and the visibility of the defect 914 is better than that of the image 901. The two images are integrated by processing 904 to create an image 903 in which the defect 916 can be clearly seen. As a result of classification of ROI, for example, a result of foreign matter on the side wall is obtained. The image 901 is used as a base image so that the image 903 looks similar to the image 901 that is not tilted. In the integration process 904, first, after performing shape deformation for each of the images 901 and 902 by the shape deformation processes 905 and 906, a load sum process 909 is performed. In the image 901, since the side wall region is too narrow, it is difficult to generate an image in which the defect 914 is clear by an integration method in which weighted addition is performed after the size of the side wall portion of the image 902 is matched to the image 901. Therefore, the shape deformation process is also performed on the image 901 to widen the side wall region. Images 907 and 908 are the outputs of the shape transformation processes 905 and 906, respectively. In the image 907, the region of the side wall portion 918 is expanded with respect to the image 901, and the size of the defect 917 is also increased. However, since the image 907 is created from the image 901 by image processing, the image quality of the defective portion is poor. Therefore, the image quality of the defect is enhanced by weighted addition with the image 908. In the shape transformation process 906, the shape transformation is performed so that the position and area of the side wall 920 and the defect 919 of the image 908 are matched with the image 907. Note that misalignment often occurs between the images 901 and 902. For this reason, positional deviation correction may be performed as preprocessing for at least one of the images.

チルトをさせない画像とチルト画像を統合する場合は,図8の実施例図と同様に形状を適切に変形しなければ,統合画像において繋ぎ目が不連続になるなどの不具合が発生する。これに対し,本実施例のようにROIとその周辺の領域について形状変形を行うことにより自然に統合を行うことができる。   When integrating an image that is not tilted and a tilted image, problems such as discontinuity of joints in the integrated image occur unless the shape is appropriately deformed as in the example of FIG. On the other hand, the integration can be naturally performed by deforming the shape of the ROI and the surrounding area as in this embodiment.

チルトをさせない画像とチルト画像とを統合することは,分解能の観点においても利点がある。焦点深度に比べて高さのある試料を撮像すると,全ての位置で焦点が合った撮像画像が得られなくなり,ある位置では分解能の悪い画像になってしまう。チルト画像では,試料を斜め方向から撮像するためにチルト角が大きいほど試料が高さを持つことになり,全ての位置で焦点が合った分解能の高い画像が得られにくくなる。そこで,ROIにおいてはチルト画像を用い,それ以外の領域ではチルトをさせない画像を用いるように画像を統合することにより,ROIの視認性が良好であり,かつそれ以外の領域でも分解能が高い画像を生成することができる。   Integrating an image that is not tilted and a tilted image is advantageous from the viewpoint of resolution. When a sample having a height that is higher than the depth of focus is imaged, a captured image that is in focus at all positions cannot be obtained, and an image with poor resolution is obtained at a certain position. In the tilt image, since the sample is imaged from an oblique direction, the larger the tilt angle, the higher the sample, and it becomes difficult to obtain an image with high resolution in focus at all positions. Therefore, by integrating images so that ROI uses tilted images and images that are not tilted in other regions, ROI has good visibility and high-resolution images in other regions. Can be generated.

図10は,異なる領域を撮像した2枚の画像を統合する処理の一実施例図である。画像1002は欠陥を含む領域を撮像した画像である。画像1001は画像1002と同様のパターンを含む,画像1002とは異なる領域を撮像した画像である。ROIの分類結果として,例えばパターン上の異物といった結果を得る。画像1001は,画像1002とは異なる撮像条件により取得しており,ノイズ量が相対的に少ないものとする。画像1002のROI以外の領域で見られる斑点状の模様はノイズが多く重畳していることを表す。画像1001は,例えば半導体ウェハ内の他のチップにおける撮像画像であっても良いし,同一チップにおける撮像画像であっても良い。同様の形状のパターンを複数枚撮像して加算平均を取ることによりノイズ量を低減した画像(ゴールデン画像)であっても良い。画像1001,1002を処理1004により統合して,ROIを含むノイズ量が少ない画像1003を生成する。画像1001と1002には対応するパターンが映ってはいるが,異なる領域を撮像しているために位置ずれが発生している。そこで,まず位置合わせ処理1005を行うことで画像1002の位置を画像1001に合うように補正する。その後,荷重和処理1006を行う。荷重和処理1006において,ROIでは位置合わせ後の画像1008に対して大きな重みを設定する。それ以外の領域では,画像1001および1002に対して,その画像に含まれるノイズ量に応じて適切な重みを設定することにより,画像1001よりもノイズ量を抑えた良好な画像を生成できる。例えば,画像1001および1002に対応する重みは,各々の画像に含まれるノイズの標準偏差の2乗に反比例するように設定する。   FIG. 10 is a diagram illustrating an example of processing for integrating two images obtained by imaging different areas. An image 1002 is an image obtained by capturing an area including a defect. The image 1001 is an image obtained by capturing a region different from the image 1002 including the same pattern as the image 1002. As the ROI classification result, for example, a result such as a foreign substance on the pattern is obtained. The image 1001 is acquired under imaging conditions different from those of the image 1002, and the amount of noise is relatively small. A speckled pattern seen in a region other than the ROI of the image 1002 indicates that a lot of noise is superimposed. The image 1001 may be, for example, a captured image on another chip in the semiconductor wafer or a captured image on the same chip. An image (golden image) in which the amount of noise is reduced by taking a plurality of patterns having the same shape and taking the addition average. The images 1001 and 1002 are integrated by processing 1004 to generate an image 1003 with a small amount of noise including ROI. The corresponding patterns are shown in the images 1001 and 1002, but misalignment occurs because different areas are imaged. Therefore, first, a position adjustment process 1005 is performed to correct the position of the image 1002 so as to match the image 1001. Thereafter, the load sum processing 1006 is performed. In the load sum processing 1006, a large weight is set for the image 1008 after alignment in ROI. In other areas, it is possible to generate a good image with a smaller amount of noise than the image 1001 by setting an appropriate weight for the images 1001 and 1002 in accordance with the amount of noise included in the images. For example, the weights corresponding to the images 1001 and 1002 are set so as to be inversely proportional to the square of the standard deviation of noise included in each image.

なお,画像1001は,画像1002に比べてノイズ量が同等以上であっても良い。この場合にも,ROI以外の領域では画像1001と1002の両方の情報を用いることで,よりノイズが少ない画像を得ることができる。   Note that the amount of noise in the image 1001 may be equal to or greater than that of the image 1002. Also in this case, an image with less noise can be obtained by using both information of the images 1001 and 1002 in the region other than the ROI.

次に,図11,12にて,図1のステップ102に相当するROI抽出処理について述べる。   Next, an ROI extraction process corresponding to step 102 in FIG. 1 will be described with reference to FIGS.

図11は,2枚の撮像画像に含まれるROIを抽出する一実施例図である。撮像画像1101,1102には,パターンと,楕円状の細長い欠陥1111と,円状の欠陥1112が映っている。しかし,欠陥1111は画像1101のほうが鮮明に映っており,欠陥1112は画像1102のほうが鮮明に映っている。この2枚の画像に対し,ROI抽出処理1105を行う。この処理は,ROI種類特定処理1106と領域抽出処理1107からなる。ROI種類特定処理1106では,例えば,ROIを欠陥領域と下層領域であると特定する。このROI種類特定処理は,ユーザ情報,設計データ,工程情報などの情報に基づいて行なっても良い。例えば,ユーザから下層領域のみに興味があるという情報が入力された場合には,ROIは下層領域のみであるとすれば良い。また,光学画像などに基づいてROI種類特定処理を行なっても良い。撮像画像を基に,ROIの種類を特定しても良い。次に,領域抽出処理1107を行う。この処理は,例えばROIが欠陥の場合には,同様のパターンが映った別の領域を撮像した画像(参照画像)と撮像画像とを比較することにより行える。ROIが下層領域の場合には,設計データと撮像画像とを比較することや,撮像画像から明度が低い領域を抽出することにより領域抽出を行える。ROI抽出結果の例を画像1103および1104に示す。画像に含まれている二つの欠陥1121,1122について,それぞれ鮮明に映っているほうの画像で抽出する。この例のように,統合の対象とする複数の撮像画像において,ROIは複数個存在しても良いし,画像1103の欠陥1121と画像1104の欠陥1122のように撮像画像毎に異なる領域を抽出しても良い。   FIG. 11 is a diagram illustrating an example of extracting ROI included in two captured images. The captured images 1101 and 1102 show a pattern, an elliptical elongated defect 1111, and a circular defect 1112. However, the defect 1111 shows the image 1101 more clearly, and the defect 1112 shows the image 1102 more clearly. ROI extraction processing 1105 is performed on these two images. This process includes an ROI type identification process 1106 and an area extraction process 1107. In the ROI type specifying process 1106, for example, the ROI is specified as a defective area and a lower layer area. This ROI type identification process may be performed based on information such as user information, design data, and process information. For example, when information indicating that the user is interested only in the lower layer area is input, the ROI may be determined only for the lower layer area. Further, the ROI type specifying process may be performed based on an optical image or the like. The type of ROI may be specified based on the captured image. Next, region extraction processing 1107 is performed. For example, when the ROI has a defect, this processing can be performed by comparing an image (reference image) obtained by imaging another region in which a similar pattern is captured with a captured image. When the ROI is a lower layer region, the region extraction can be performed by comparing the design data and the captured image, or extracting a region with low brightness from the captured image. Examples of ROI extraction results are shown in images 1103 and 1104. The two defects 1121 and 1122 included in the image are extracted as the images that are clearly visible. As in this example, in a plurality of captured images to be integrated, a plurality of ROIs may exist, and different regions are extracted for each captured image, such as a defect 1121 in the image 1103 and a defect 1122 in the image 1104. You may do it.

図12は,ROI抽出処理を表す図11とは異なる一実施例図である。2枚の撮像画像1201および1202からROIを抽出する。抽出したいROIは,画像1201の欠陥1211および画像1202の下層領域1212であるとする。本実施例では,画像内の線分ABのみについて説明する。グラフ1203および1204は,それぞれ画像1201および1202の線分ABにおける明度値である。この情報を用いて領域抽出処理1205を行う。グラフ1203と1204を比較すると,上層領域と下層領域の間のコントラストはグラフ1203のほうが高いため,グラフ1203を用いたほうが確実に下層を抽出できる。しかし,画像1211のほうが画像1202に比べて下層領域の幅が狭い。そこで,画像1201を用いて下層を粗く抽出した後,画像1202を用いて精細な抽出を行う。グラフ1206は,線分ABにおけるROI度合いである。図11ではROI抽出結果は2値の値を持つ画像(すなわち,画素毎にROIか否かのみを表現する画像データ)であったが,図12の例ではROI度合いは0から1までの連続値をとる。ROI度合いが連続値(または細かな刻み幅の離散値)であったほうが,後段の統合処理において連続的な重みを用いた重み付け加算処理などを行うことができ,ROI境界がより自然に見えるような処理を行うことができる。   FIG. 12 is an embodiment diagram different from FIG. 11 showing the ROI extraction processing. The ROI is extracted from the two captured images 1201 and 1202. Assume that ROIs to be extracted are the defect 1211 of the image 1201 and the lower layer region 1212 of the image 1202. In this embodiment, only the line segment AB in the image will be described. Graphs 1203 and 1204 are lightness values in line segments AB of images 1201 and 1202, respectively. A region extraction process 1205 is performed using this information. Comparing the graphs 1203 and 1204, the contrast between the upper layer region and the lower layer region is higher in the graph 1203. Therefore, the lower layer can be extracted more reliably by using the graph 1203. However, the width of the lower layer region of the image 1211 is narrower than that of the image 1202. Therefore, after the lower layer is roughly extracted using the image 1201, fine extraction is performed using the image 1202. A graph 1206 shows the ROI degree in the line segment AB. In FIG. 11, the ROI extraction result is an image having a binary value (that is, image data expressing only whether or not each pixel is ROI), but in the example of FIG. 12, the ROI degree is a continuous value from 0 to 1 Takes a value. If the ROI degree is a continuous value (or a discrete value with a fine step size), weighted addition processing using continuous weights can be performed in the subsequent integration processing, so that the ROI boundary looks more natural. Can be processed.

図13は,図1のステップ103に相当するROI分類処理のフローを示す一実施例図である。この処理では,撮像画像のセットおよびROI度合いを入力1301として,分類結果1302を出力する。この例では,ROI度合いが高い領域について,処理1311〜1317を行うことにより分類する。まず,パターン/欠陥判定処理1311により,ROI内に映った対象物がパターンか欠陥かを識別する。その結果,欠陥と判定された場合には,欠陥種類判定処理1312を行う。パターン/欠陥の判定は,例えば,同様のパターンが映った別の領域を撮像した画像(参照画像)と撮像画像との差分を計算し,差分が大きければ欠陥,そうでなければパターンと判定することにより行える。または,機械学習などの手法を用いることもできる。欠陥種類の判定方法は,例えば特開2000−99727号公報に開示されている。また,高さ関係判定処理1313により,ROI内とその周辺領域に存在する複数の対象物の高さ関係を識別する。この識別方法の一例は,図14を用いて後述する。透明度判定1314では,ROI内にある対象物の透明度を判定する。例えば図3で示した欠陥311は透明度がほぼゼロで,欠陥の下側にある対象物が映らないのに対し,凹凸欠陥324は,透明が高い。透明度は,例えば図5の欠陥がない画像を推定する処理503等を行い,その結果との比較を行うことで判定することができる。暗部/明部判定処理1315では,明度値に応じて下層領域などの暗部であるか,上層パターンなどの明部であるかを判定する。影領域内外判定処理1316では,ROIが近傍にある上層パターンの影の領域の内部にあるか否かを判定する。ROI周辺領域との明度差判定処理1317では,ROI周辺領域との代表的な明度値の差を計算する。代表的な明度値とは,明度値の平均であっても良いし,明度値の平均と標準偏差から求めるような量であっても良い。   FIG. 13 is a diagram showing an example of the flow of ROI classification processing corresponding to step 103 in FIG. In this process, the set of captured images and the ROI degree are used as an input 1301, and a classification result 1302 is output. In this example, an area having a high ROI degree is classified by performing processes 1311 to 1317. First, the pattern / defect determination process 1311 identifies whether the object shown in the ROI is a pattern or a defect. As a result, when it is determined as a defect, a defect type determination process 1312 is performed. The pattern / defect is determined by, for example, calculating the difference between an image (reference image) obtained by imaging another area in which a similar pattern is reflected and the captured image. If the difference is large, the pattern is determined as a defect. Can be done. Alternatively, a method such as machine learning can be used. A defect type determination method is disclosed in, for example, Japanese Patent Application Laid-Open No. 2000-99727. Further, the height relation determination processing 1313 identifies the height relation of a plurality of objects existing in the ROI and its surrounding area. An example of this identification method will be described later with reference to FIG. In transparency determination 1314, the transparency of the object in the ROI is determined. For example, the defect 311 shown in FIG. 3 has almost zero transparency, and the object under the defect is not reflected, whereas the uneven defect 324 is highly transparent. The transparency can be determined by performing, for example, processing 503 for estimating an image having no defect in FIG. 5 and comparing the result. In the dark part / bright part determination processing 1315, it is determined whether it is a dark part such as a lower layer area or a bright part such as an upper layer pattern according to the lightness value. In the shadow area inside / outside determination processing 1316, it is determined whether or not the ROI is inside the shadow area of the upper layer pattern in the vicinity. In a brightness difference determination process 1317 with the ROI peripheral area, a difference in representative brightness value with the ROI peripheral area is calculated. The representative brightness value may be the average of the brightness values or may be an amount obtained from the average of the brightness values and the standard deviation.

このように,複数の判定基準に基づいてROIを分類することで,ROIの種類毎により適切な統合処理を行うことが可能になる。   In this way, by classifying ROIs based on a plurality of determination criteria, it is possible to perform appropriate integration processing for each type of ROI.

処理1311〜1317の結果は,離散値であっても連続値であっても良い。例えばパターン/欠陥判定処理1311は2値を返すが,透明度判定処理1313は透明度を表す連続値であっても良い。また,ROI内の各画素または各小領域について判定を行なっても良い。どのような分類を行うかは,対象によって変えることができる。例えば,欠陥を含む試料が対象でないならば,パターン/欠陥判定1311は不要であるし,影が存在しない画像ならば,影領域内外判定1316は不要である。分類項目は,後述するインターフェイス等を通してユーザから選択できるようにしても良いし,工程毎に自動で切り替えても良い。   The results of the processes 1311 to 1317 may be discrete values or continuous values. For example, the pattern / defect determination process 1311 returns a binary value, but the transparency determination process 1313 may be a continuous value representing the transparency. Further, each pixel or each small area in the ROI may be determined. The type of classification can vary depending on the subject. For example, the pattern / defect determination 1311 is unnecessary if the sample including the defect is not a target, and the shadow area inside / outside determination 1316 is not required if the image does not have a shadow. The classification items may be selected by the user through an interface described later, or may be automatically switched for each process.

図14は,ROI内に存在する複数の対象物の高さ関係を識別する処理の一実施例図である。2枚の画像1401および1402の例を用いて説明する。両画像において,欠陥が映った領域1412および1414をROIとする。ROIには欠陥の他にパターン1411および1413が含まれている。欠陥は,透明度がほぼゼロの異物である。まず,ROIおよび周辺領域抽出処理1403を行う。これは,ROI抽出処理の結果であるROI度合いを用いて,例えばROI度合いが高い領域とその近傍の領域を抽出することにより実現できる。これにより,両画像に対して,それぞれ領域1415および領域1416が抽出できる。次に,高さ関係を識別する処理1405を行う。領域1415では,パターン1417が欠陥領域の内部では見えないことから,欠陥が上側にあることがわかる。一方,領域1416では,パターン1418が欠陥領域の内部でも繋がって見えることから,欠陥が下側にあることがわかる。このようにパターンが繋がって見えるか否かの情報に基づいて判定を行うことができる。   FIG. 14 is a diagram illustrating an example of processing for identifying the height relationship of a plurality of objects existing in the ROI. This will be described using an example of two images 1401 and 1402. In both images, regions 1412 and 1414 in which a defect is shown are defined as ROI. The ROI includes patterns 1411 and 1413 in addition to defects. Defects are foreign objects with almost zero transparency. First, ROI and surrounding area extraction processing 1403 is performed. This can be realized, for example, by extracting a region having a high ROI degree and a region in the vicinity thereof by using the ROI degree as a result of the ROI extraction process. Thereby, a region 1415 and a region 1416 can be extracted for both images. Next, processing 1405 for identifying the height relationship is performed. In the region 1415, since the pattern 1417 is not visible inside the defect region, it can be seen that the defect is on the upper side. On the other hand, in the region 1416, since the pattern 1418 appears to be connected inside the defect region, it can be seen that the defect is on the lower side. In this way, the determination can be made on the basis of information on whether or not the patterns appear to be connected.

このような識別を用いてROIの分類を行うことにより,対象物の高さに関する情報を保存した統合を行うことが可能となるため,自然な画像を提供することができる。例えば,画像1401では統合後の画像でも欠陥はパターンの上側に存在するように見えるし,画像1402では統合後の画像でも欠陥はパターンの下側に存在するように見えるように,統合処理を行える。   By classifying ROI using such identification, it is possible to perform integration that preserves information related to the height of the object, so that a natural image can be provided. For example, the integration process can be performed so that the defect appears to exist above the pattern in the image 1401 and the defect appears to exist below the pattern in the image 1402. .

高さ関係の識別には,図14の例とは異なる方法を用いても良い。例えば,陰影像を利用できるならば,影の付き方を見て高さ関係を求めることができる。または,設計データを用いても高さ関係を明らかにできる。   For identification of the height relationship, a method different from the example of FIG. 14 may be used. For example, if a shadow image can be used, the height relationship can be obtained by looking at how the shadow is added. Alternatively, the height relationship can be clarified using design data.

図15は,ROIが上層パターン領域(以下,上層領域),下層領域,パターン側壁領域(以下,側壁領域)のうち,何れの領域に属するかを識別する処理を表す一実施例図である。画像1501は識別の対象とする画像である。画像内に含まれる3個の欠陥A〜Cの領域をROIとする。まず,上層・下層・側壁抽出処理1503により,画像を上層領域と下層領域と側壁領域に分離する。この処理は,図14の場合と同様に,影の付き方や設計データを用いて行うことができる。または,明度値が相対的に高い領域は上層領域,相対的に低い領域は下層領域と識別することもできる。画像1501の例では側壁領域はなく,画像1502のように上層領域と下層領域に分離される。次に,ROIの上層/下層/側壁識別処理1504により,各ROIが何れの領域に属するかを識別する。この処理を行うためには,画像1502を用いて各ROIがどの領域に存在するかを求めれば良い。画像1501の例では,欠陥Aは上層領域に属し,欠陥Bは下層領域に属する。欠陥Cは上層領域と下層領域の両方に属する。   FIG. 15 is a diagram illustrating an example of a process for identifying which region of ROI an upper layer pattern region (hereinafter referred to as an upper layer region), a lower layer region, and a pattern sidewall region (hereinafter referred to as a sidewall region) belongs to. An image 1501 is an image to be identified. An area of three defects A to C included in the image is defined as ROI. First, an upper layer / lower layer / side wall extraction process 1503 separates an image into an upper layer region, a lower layer region, and a sidewall region. Similar to the case of FIG. 14, this process can be performed using a shadow method and design data. Alternatively, a region having a relatively high brightness value can be identified as an upper layer region, and a region having a relatively low brightness value can be identified as a lower layer region. In the example of the image 1501, there is no side wall region, and the upper layer region and the lower layer region are separated as in the image 1502. Next, the ROI upper layer / lower layer / side wall identification processing 1504 identifies which region each ROI belongs to. In order to perform this process, it is only necessary to determine in which region each ROI exists using the image 1502. In the example of the image 1501, the defect A belongs to the upper layer region, and the defect B belongs to the lower layer region. The defect C belongs to both the upper layer region and the lower layer region.

ROIが下層領域や側壁領域に存在する場合,視認性を向上するためには重み付け加算処理よりも高度な処理が必要となる場合が多い。例えば,ROIが下層領域に存在する場合には,試料から放出される荷電粒子が上層パターンに遮蔽されるため検出器に到達しにくくなり,コントラストが低下することも多い。このような画像に対してROIを顕在化するためには,重み付け加算のみでなく明度調整も必要になる。また,ROIが側壁領域に存在する場合には,側壁領域は画像内の小さい領域であるため視認性が良好ではないことが多い。ROIが側壁領域にある場合に,荷電粒子ビームを試料の直上からではなく斜め方向から照射して(すなわち,チルトさせて)画像を撮像する場合もある。このときに,チルトさせずに撮像した画像にチルト画像を統合することにより,ROIの視認性を向上できる。しかし,統合を行う前に,それぞれの画像の画素間の対応付けを行うために適切に伸縮させる必要がある。図15の実施例のように,ROIが上層領域,下層領域,側壁領域の何れに存在するかを識別すれば,その結果に応じて適切な統合の方法を選択することができる。   When the ROI is present in the lower layer region or the side wall region, in order to improve the visibility, it is often necessary to perform processing more advanced than the weighted addition processing. For example, when the ROI is present in the lower layer region, charged particles emitted from the sample are shielded by the upper layer pattern, making it difficult to reach the detector, and the contrast is often lowered. In order to realize ROI for such an image, not only weighted addition but also brightness adjustment is required. In addition, when the ROI exists in the side wall region, the side wall region is a small region in the image, and thus visibility is often not good. When the ROI is in the side wall region, the charged particle beam may be irradiated from an oblique direction (that is, tilted) instead of directly above the sample, and an image may be captured. At this time, the visibility of the ROI can be improved by integrating the tilt image with the image captured without tilting. However, before integration, it is necessary to appropriately expand and contract in order to associate the pixels of each image. If the ROI is present in the upper layer region, the lower layer region, or the sidewall region as in the embodiment of FIG. 15, an appropriate integration method can be selected according to the result.

図16は,分類結果に応じて統合方法を制御する処理を表す一実施例図である。この処理では,分類結果1601と撮像画像のセット1605を入力とし,統合画像1607を得る。予め,分類結果と,適用する統合方式との関係をテーブル1603等のデータとして持っておく。まず,与えられた分類結果1601に応じて,スイッチ1604によりどの統合方式を用いるかを決定する。また,分類結果に応じて,パラメータ設定処理1602により統合処理に必要なパラメータを決定する。パラメータ設定処理1602でも,分類結果と適用するパラメータとの関係を予めテーブル等のデータとして持っておき,分類結果に応じて対応する値を読み込む。パラメータ設定処理1602は,撮像画像を用いて行なっても良い。例えば,明度値調整処理を行いたい場合などでは,ある領域の平均明度値が揃うように調整するなど,対象とする撮像画像を用いたほうが適切な値を設定できることも多い。最後に,統合処理1606により画像セット1605の統合を行う。   FIG. 16 is a diagram illustrating an example of processing for controlling the integration method according to the classification result. In this processing, a classification result 1601 and a set of captured images 1605 are input, and an integrated image 1607 is obtained. The relationship between the classification result and the integrated method to be applied is previously stored as data in the table 1603 or the like. First, in accordance with the given classification result 1601, which integration method is used is determined by the switch 1604. Also, parameters necessary for the integration process are determined by the parameter setting process 1602 according to the classification result. Also in the parameter setting process 1602, the relationship between the classification result and the parameter to be applied is previously stored as data such as a table, and a corresponding value is read according to the classification result. The parameter setting process 1602 may be performed using a captured image. For example, when it is desired to perform brightness value adjustment processing, it is often possible to set an appropriate value by using a target captured image, such as adjusting so that the average brightness values of a certain region are aligned. Finally, the image set 1605 is integrated by the integration process 1606.

分類結果は連続値を含んでいても良い。この場合,スイッチ処理1604およびパラメータ設定処理1602には,連続値を含む分類結果を用いて,テーブル等のデータのうちどの方式およびパラメータを用いるかを計算するような処理が入っていても良い。なお,常に1個以上のROIが存在するとは限らず,撮像画像によってはROIが存在しない場合もあり得る。その場合には,ROIが存在しないという分類結果を返し,その場合に適した統合方法を用いることにより,適切な処理を行うことができる。   The classification result may include a continuous value. In this case, the switch process 1604 and the parameter setting process 1602 may include a process for calculating which method and parameter to use among data such as a table using a classification result including continuous values. Note that one or more ROIs are not always present, and depending on the captured image, there may be no ROIs. In that case, an appropriate process can be performed by returning a classification result indicating that there is no ROI and using an integration method suitable for that case.

図17は,分類結果に応じて統合方法を制御する処理を表す一実施例図である。図16では,テーブルなどのデータを用いて分類結果毎に統合方法を制御する処理について説明したが,本実施例では,予め定められたルールに基づいて分類結果毎に統合方法を制御する。この例では,ROIを欠陥とし,パターンの上側にあるか否か,透明度が高いか否か,上層パターンの影か否か,相対明度が高いか否かを,処理1702〜1705により判定し,その結果に応じて統合方法を変える。まず,判定処理1702によりパターンの上側にあるか否かを判定し,パターンの上側にないと判定した場合は,図5の実施例図にて説明したようなROI差分情報との荷重和処理1711を行う。パターンの上側にあると判定した場合は,次に判定処理1703により透明度が高いか否かを判定する。この処理は,例えば透明度があるしきい値を超えるか否かにより判定すれば良い。透明度が高いと判定した場合は,処理1711を行う。一方,透明度が高くはないと判定した場合は,判定処理1703によりROIが上層パターンの影の領域にあるか否かを判定する。影の領域にはないと判定した場合は,図4の実施例図にて説明したような荷重和処理1712を行う。影の領域にあると判定した場合は,判定処理1705でROI周囲との相対明度が高いか否かを判定する。相対明度が高いと判定した場合は,荷重和処理1712を行う。一方,相対明度が低いと判定した場合は,図6の実施例図にて説明したような明度調整後に荷重和を計算する処理1713を行う。   FIG. 17 is a diagram illustrating an example of processing for controlling the integration method according to the classification result. In FIG. 16, the processing for controlling the integration method for each classification result using data such as a table has been described, but in this embodiment, the integration method is controlled for each classification result based on a predetermined rule. In this example, it is determined by processing 1702-1705 whether ROI is a defect and whether it is above the pattern, whether the transparency is high, whether it is a shadow of the upper layer pattern, or whether the relative brightness is high, The integration method is changed according to the result. First, it is determined whether or not the pattern is above the pattern by the determination process 1702, and when it is determined that the pattern is not above the pattern, the load sum process 1711 with the ROI difference information as described in the embodiment diagram of FIG. I do. If it is determined that the pattern is located above the pattern, it is next determined whether or not the transparency is high by a determination process 1703. This process may be determined based on, for example, whether the transparency exceeds a certain threshold value. If it is determined that the transparency is high, processing 1711 is performed. On the other hand, if it is determined that the transparency is not high, it is determined by the determination process 1703 whether the ROI is in the shadow area of the upper layer pattern. When it is determined that it is not in the shadow area, the load sum processing 1712 as described in the embodiment diagram of FIG. 4 is performed. If it is determined that the area is in the shadow area, it is determined in the determination process 1705 whether or not the relative brightness with the ROI surrounding is high. When it is determined that the relative lightness is high, the load sum processing 1712 is performed. On the other hand, when it is determined that the relative lightness is low, a process 1713 for calculating the load sum is performed after the lightness adjustment as described in the embodiment diagram of FIG.

図18は,分類結果毎の統合方法を設定するためのユーザインターフェイスを表す一実施例図である。タブ1801では,各々の画像をベース画像とする統合画像の生成方法に関する設定を切り替えられる。この例では,チルトをせずに撮像した2次荷電粒子像(SP像)と後方散乱荷電粒子像(BSP像),およびチルトをして撮像したSP像とBSP像の,4枚の撮像画像から,SP像をベース画像とする統合画像を作成するための統合方法を設定する画面を表示している。タブ1801をBSP像に設定すれば,同じ4枚の撮像画像から,BSP像をベース画像とする統合画像を生成するための統合方法を指定できる。4枚の撮像画像から任意の枚数の統合画像を生成することができる。SP像をベース画像とする統合画像を2枚生成しても良い。統合方法を設定する画面は,対象とする分類結果を指定するセル1812と,対応する統合方法を指定するセル1813と,その設定の優先順位を指定するセル1811からなる。また,設定を決定するための決定ボタン1821と設定をデフォルト値に戻すクリアボタン1822がある。   FIG. 18 is a diagram illustrating an example of a user interface for setting an integration method for each classification result. In a tab 1801, settings relating to an integrated image generation method using each image as a base image can be switched. In this example, four captured images of a secondary charged particle image (SP image) and a backscattered charged particle image (BSP image) captured without tilting, and an SP image and a BSP image captured with tilting. Thus, a screen for setting an integration method for creating an integrated image using the SP image as a base image is displayed. If the tab 1801 is set as a BSP image, an integration method for generating an integrated image using the BSP image as a base image from the same four captured images can be designated. An arbitrary number of integrated images can be generated from the four captured images. Two integrated images using the SP image as a base image may be generated. The screen for setting the integration method includes a cell 1812 for specifying the target classification result, a cell 1813 for specifying the corresponding integration method, and a cell 1811 for specifying the priority of the setting. Further, there are a determination button 1821 for determining the setting and a clear button 1822 for returning the setting to the default value.

1831の行では,分類結果がスクラッチ欠陥の場合,SP像に対してBSP像におけるROIの差分(セル中の記述 "sub(・)" は,ROIの差分を求める関数を表す)をa倍した値を加算した値をROIにおける統合結果とすることを表している。この処理は,図5の実施例図で説明をした統合方法に対応する。aはパラメータであり,ユーザにより別途指定された値を用いても良いし,ROIにおけるコントラストが一定値以上である等の評価指標に基づいて自動で決定しても良い。ROI以外の領域における統合方法は本実施例図では記載していないが,同様にインターフェイスを通して設定しても良いし,自動で制御しても良い。例えば1831の行の場合はROI以外の領域ではベース画像であるSP像をそのまま用いれば良いし,形状変形や明度調整が必要となる場合には対応する処理を行うようにすれば良い。1832の行では,分類結果が暗部の場合,SP像に対して明度調整を行った画像(セル中の記述 "contr(・)" は,明度調整を行う関数を表す)と,BSP像に対して明度調整を行った画像のうち,平均明度値が高いほうの画像(セル中の記述 "argmax(・)" は,平均明度値が高い画像を選択する関数を表す)をROIにおける統合結果とすることを表している。1831の行と1832の行では,1831の行のほうが優先順位が高いため,暗部にあるスクラッチ欠陥があると1831の行にて指定された統合方法が適用される。1833の行では,分類結果がパターン側壁領域にあり,かつチルト像から抽出されたROIである場合,チルトさせたSP像を形状変形した画像(セル中の記述 "distort(・)" は,形状変形する関数を表す)をROIにおける統合結果とすることを表している。この際,図9の実施例図にて説明したように,ベース画像も形状変形するとROIがより見やすくなる場合があるため,ベース画像も必要に応じて自動で形状変形する。1834の行では,分類結果がその他の全ての場合,SP像をb倍した画像とROIを1−b倍した画像の和を,ROIでの統合画像とすることを表している。bはパラメータである。このように,分類結果毎の統合方法を指定するインターフェイスを備えることにより,ユーザが望む方法で統合方法を制御することが可能になる。   In the row 1831, when the classification result is a scratch defect, the ROI difference in the BSP image (the description “sub (•)” in the cell represents the function for obtaining the ROI difference) is multiplied by a with respect to the SP image. The value obtained by adding the values is used as the integrated result in ROI. This processing corresponds to the integration method described in the embodiment diagram of FIG. a is a parameter, and a value separately designated by the user may be used, or may be automatically determined based on an evaluation index such that the contrast in ROI is a certain value or more. An integration method in a region other than the ROI is not described in the present embodiment diagram, but it may be set through an interface in the same manner, or may be controlled automatically. For example, in the case of line 1831, the SP image that is the base image may be used as it is in the region other than the ROI, and corresponding processing may be performed when shape deformation or brightness adjustment is necessary. In the row 1832, when the classification result is a dark part, the image in which the brightness adjustment is performed on the SP image (the description “contr (•)” in the cell represents a function for adjusting the brightness) and the BSP image The image with the higher average brightness value (the description "argmax (•)" in the cell represents the function that selects the image with the higher average brightness value) is used as the result of ROI integration. Represents what to do. In the 1831 row and the 1832 row, the 1831 row has a higher priority. Therefore, if there is a scratch defect in the dark part, the integration method specified in the 1831 row is applied. In the row 1833, when the classification result is in the pattern side wall region and the ROI is extracted from the tilt image, an image obtained by deforming the tilted SP image (the description “distort (•)” in the cell is the shape (Represents a function to be deformed) as an integrated result in ROI. At this time, as described in the embodiment diagram of FIG. 9, since the ROI may be easier to see if the shape of the base image is deformed, the shape of the base image is automatically deformed as necessary. In the row 1834, when the classification results are all other cases, the sum of the image obtained by multiplying the SP image by b and the image obtained by multiplying the ROI by 1-b is used as the integrated image at the ROI. b is a parameter. Thus, by providing an interface for designating an integration method for each classification result, the integration method can be controlled by a method desired by the user.

統合方法は,必要に応じて詳細を指定できるような機能を設けても良い。一方,詳細な指定を行わなかった場合にも,ある程度自動で処理をするようにしても良い。例えば,1831の行におけるパラメータaは,先述したように指定をしなくても自動で適切な値を設定するような処理にすることができる。同様に,1832の行における明度調整や1833の行における形状変形においても,具体的なパラメータが指定されなかった場合には自動で設定するような処理にすることができる。   The integration method may be provided with a function that can specify details as required. On the other hand, even when detailed designation is not performed, the processing may be performed to some extent automatically. For example, the parameter a in the line 1831 can be processed so as to automatically set an appropriate value without being specified as described above. Similarly, in the brightness adjustment in the 1832 line and the shape deformation in the 1833 line, if a specific parameter is not specified, the process can be automatically set.

また,インターフェイス画面において,タグの追加・削除・修正を行うためのインターフェイスや,セルの行数を増減するためのインターフェイス,設定をファイルに書き出したり,ファイルから読み込んだりするためのインターフェイスを備えていても良い。さらにパラメータ等の詳細設定を行うためのインターフェイスを備えていても良い。   In addition, the interface screen has an interface for adding / deleting / modifying tags, an interface for increasing / decreasing the number of cell rows, and an interface for writing / reading settings to / from a file. Also good. Further, an interface for performing detailed settings such as parameters may be provided.

図19は,欠陥を含む高倍画像を自動で撮像してその統合画像を求めるシーケンスの一実施例図である。欠陥を含む高倍画像を自動で撮像するためには,欠陥位置を高精度に求める必要がある。このためには,まず低倍画像を撮像し,その低倍画像から欠陥検出処理を行なうことにより欠陥位置を高精度に求めるという前処理が必要になることが多い。そこで,まず,ステップ1901にて,低倍参照画像1911を取得する。参照画像は,半導体ウェハ内の他のチップにおける対応する位置を撮像した画像であっても良いし,同一チップにおける同様の形状のパターンが存在する位置を撮像した画像であっても良い。次に,ステップ1902にて低倍欠陥画像1912を取得し,ステップ1903により低倍参照画像1911と低倍欠陥画像1912を用いて欠陥位置を特定する。その後,ステップ1904にて高倍欠陥画像を取得する。ステップ1905ではROIを抽出し,ステップ1906ではROIを分類する。ステップ1907にて分類結果に基づいて画像を統合し,最後にステップ1908で統合画像を表示する。高倍欠陥画像を取得する方法は,例えば特開平9−139406号公報に開示されている。統合画像を表示する前に,データベース等に統合画像を保存しておき,観察対象とする欠陥位置毎にステップ1901〜 1907の処理を繰り返した後,最後にまとめて統合画像を表示しても良い。   FIG. 19 is an example of a sequence for automatically capturing a high-magnification image including a defect and obtaining an integrated image thereof. In order to automatically capture a high-magnification image including a defect, it is necessary to obtain the defect position with high accuracy. For this purpose, it is often necessary to perform preprocessing in which a low-magnification image is first taken and a defect position is obtained from the low-magnification image to obtain a defect position with high accuracy. Therefore, first, in step 1901, a low-magnification reference image 1911 is acquired. The reference image may be an image obtained by imaging a corresponding position on another chip in the semiconductor wafer, or may be an image obtained by imaging a position where a pattern having the same shape on the same chip exists. Next, a low-magnification defect image 1912 is acquired in step 1902, and a defect position is specified using the low-magnification reference image 1911 and the low-magnification defect image 1912 in step 1903. Thereafter, in step 1904, a high-magnification defect image is acquired. In step 1905, ROI is extracted, and in step 1906, ROI is classified. In step 1907, the images are integrated based on the classification result, and finally, in step 1908, the integrated image is displayed. A method for acquiring a high-magnification defect image is disclosed in, for example, Japanese Patent Laid-Open No. 9-139406. Before displaying the integrated image, the integrated image may be stored in a database or the like, and after repeating the processing of steps 1901 to 1907 for each defect position to be observed, the integrated image may be displayed collectively at the end. .

ステップ1905でROIを抽出したり,ステップ1906でROIを分類する際,高倍欠陥画像のみでなく,低倍参照画像1911や逓倍欠陥画像1912を用いても良い。また,ステップ1907で画像を統合する際,複数枚の高倍欠陥画像を統合しても良いし,低倍参照画像1911,低倍欠陥画像1912の何れかまたは両方と高倍欠陥画像を統合しても良いし,低倍参照画像1911,低倍欠陥画像1912の何れかまたは両方のみを用いて統合しても良い。または,他の欠陥位置を撮像した際に取得した他の画像(低倍参照画像または低倍欠陥画像または高倍欠陥画像)を用いて統合しても良い。   When extracting the ROI in step 1905 or classifying the ROI in step 1906, not only the high-magnification defect image but also the low-magnification reference image 1911 or the multiplication defect image 1912 may be used. Further, when integrating images in step 1907, a plurality of high-magnification defect images may be integrated, or either one or both of the low-magnification reference image 1911 and the low-magnification defect image 1912 may be integrated with the high-magnification defect image. They may be integrated using only one or both of the low-magnification reference image 1911 and the low-magnification defect image 1912. Or you may integrate using the other image (Low magnification reference image, Low magnification defect image, or High magnification defect image) acquired when another defect position was imaged.

以上の実施例で説明したとおり、本願発明は以下の画像表示方法および前記画像表示方法を搭載した荷電粒子顕微鏡装置により前記課題を解決するものである。   As described in the above embodiments, the present invention solves the above problems by the following image display method and a charged particle microscope apparatus equipped with the image display method.

(1)本発明は,複数枚の画像を撮像し,撮像画像からROIを抽出・分類した後,複数枚の撮像画像を統合して表示する。この際,ROIの分類結果に応じて統合方法を制御することを特徴とする。   (1) In the present invention, a plurality of images are captured, ROIs are extracted and classified from the captured images, and then the plurality of captured images are integrated and displayed. At this time, the integration method is controlled according to the ROI classification result.

これにより,ROI毎に画像での見え方が大きく異なる場合でも,自動で各々のROIに適した方法を選択して統合を行うことができ,常にROIの画質が良好な画像を提供することが可能になる。   As a result, even if the appearance of the image differs greatly for each ROI, it is possible to automatically select and integrate the method suitable for each ROI, and always provide an image with good ROI image quality. It becomes possible.

(2)また,本発明は,ROIの分類においてROI内に存在する複数の対象物の高さ関係を識別することを特徴とする。   (2) Further, the present invention is characterized in that the height relationship of a plurality of objects existing in the ROI is identified in the ROI classification.

ここで,荷電粒子源に近いほど高い位置にあり,遠いほど低い位置にあると表現している。例えば,ROIがホールパターンを含む場合,穴底は相対的に低い位置,ホール周辺の領域は相対的に高い位置にある。本発明では,対象物の高さ関係を識別した上で統合を行うことにより,対象物の高さに関する情報を残した自然な画像を提供することが可能になる。具体例として,酸化膜を撮像した画像において,ROIが埃などの欠陥(以下,異物)である場合を考える。異物が酸化膜の上にある場合には,異物が映った領域では異物の真下にあるパターンは通常は見えない。一方,異物が酸化膜の下にある場合には,ROIには酸化膜が異物のために盛り上がって見える。自然な画像にするためには,このような特徴を残した上で画像を統合する必要があり,高さ関係を用いてROIを分類することにより,これが可能になる。   Here, the closer to the charged particle source, the higher the position, and the farther away, the lower the position. For example, when the ROI includes a hole pattern, the hole bottom is at a relatively low position and the area around the hole is at a relatively high position. In the present invention, it is possible to provide a natural image in which information on the height of the object remains, by performing integration after identifying the height relationship of the object. As a specific example, let us consider a case where an ROI is a defect such as dust (hereinafter, foreign matter) in an image obtained by imaging an oxide film. When the foreign matter is on the oxide film, the pattern directly under the foreign matter is usually not visible in the region where the foreign matter is reflected. On the other hand, when the foreign substance is under the oxide film, the oxide film appears to rise in the ROI due to the foreign substance. In order to make a natural image, it is necessary to combine the images while leaving such features, and this can be done by classifying the ROI using the height relation.

(3)また,本発明は,ROIの分類において,ROIが上層パターン領域,下層領域,パターン側壁領域,のうち少なくとも二つの領域のうち,何れであるかを識別することを特徴とする。   (3) Further, according to the present invention, in the classification of ROI, the ROI is identified as one of at least two of an upper layer pattern region, a lower layer region, and a pattern side wall region.

ROIが下層領域やパターン側壁領域に存在する場合,視認性を向上するためには重み付け加算処理よりも高度な処理が必要となる場合が多い。例えば,ROIが下層領域に存在する場合には,試料から放出される荷電粒子が上層パターンに遮蔽されるため検出器に到達しにくくなり,一般にコントラストが低下する。このような画像に対してROIを顕在化するためには,重み付け加算のみでなく明度調整も必要になる。また,ROIがパターン側壁領域に存在する場合,パターン側壁領域は画像内の小さい領域に対応することが多いため視認性が良好ではないことが多い。ROIがパターン側壁領域にある場合に,荷電粒子ビームを試料の直上からではなく斜め方向から照射して(すなわち,チルトさせて)画像を撮像する場合もある。このときに,チルトさせずに撮像した画像にチルト画像を統合することにより,ROIの視認性を向上できる。しかし,統合を行う前に,それぞれの画像の画素間の対応付けを行うために,画像を適切に伸縮させる必要がある。このように,ROIが上層パターン領域,下層領域,パターン側壁領域の何れに存在するかに応じて適切な統合の方法が異なるが,本発明により,どの領域に存在するかを分類して統合方法を制御することで,適切な統合方法を適用することができる。   When the ROI is present in the lower layer region or the pattern side wall region, in order to improve the visibility, it is often necessary to perform processing more advanced than the weighted addition processing. For example, when the ROI exists in the lower layer region, charged particles emitted from the sample are shielded by the upper layer pattern, so that it becomes difficult to reach the detector, and the contrast generally decreases. In order to realize ROI for such an image, not only weighted addition but also brightness adjustment is required. In addition, when the ROI exists in the pattern side wall region, the pattern side wall region often corresponds to a small region in the image, and thus visibility is often not good. When the ROI is in the pattern sidewall region, an image may be taken by irradiating a charged particle beam from an oblique direction (that is, tilted) rather than from directly above the sample. At this time, the visibility of the ROI can be improved by integrating the tilt image with the image captured without tilting. However, before performing integration, it is necessary to appropriately expand and contract the images in order to associate the pixels of each image. As described above, an appropriate integration method differs depending on whether the ROI exists in the upper layer pattern region, the lower layer region, or the pattern side wall region. However, according to the present invention, the region in which the ROI exists is classified and integrated. By controlling, appropriate integration methods can be applied.

(4)また,本発明は,ROIの周辺領域における複数枚の撮像画像の間の形状情報に基づいて,撮像画像に対してROIおよびROIの周辺領域を変形した後で統合することを特徴とする。   (4) In addition, the present invention is characterized in that, based on shape information between a plurality of captured images in the peripheral region of the ROI, the ROI and the peripheral region of the ROI are integrated after being deformed with respect to the captured image. To do.

複数枚の撮像画像の間には,画像歪みのために画素毎に映っているものが異なることもある。チルトさせていない画像とチルト画像は分かりやすい例である。また,異なる種類の検出器で撮像した画像であっても,例えばパターンの境界部において,一方の画像では上層パターンの情報が支配的であり,他方の画像では下層領域の情報が支配的である場合も多い。この場合には,下層領域の幅が画像によって異なって見える。これらの場合には事前に形状を適切に変形しなければ,複数の撮像画像を統合した際に,その境界が不連続になるなどの不具合が発生する。この際,ROIのみでなく,その周辺領域も変形する必要がある。これに対し,本発明により画像歪みのある撮像画像の場合にも自然に統合を行うことができる。   Among a plurality of captured images, what is reflected for each pixel may be different due to image distortion. An image that is not tilted and a tilted image are easy to understand. In addition, even in images captured by different types of detectors, for example, at the boundary of the pattern, information on the upper layer pattern is dominant in one image, and information on the lower layer region is dominant in the other image. There are many cases. In this case, the width of the lower layer area looks different depending on the image. In these cases, if the shape is not appropriately deformed in advance, when a plurality of captured images are integrated, problems such as discontinuities in the boundaries occur. At this time, it is necessary to transform not only the ROI but also the surrounding area. On the other hand, the present invention can naturally integrate even in the case of a captured image with image distortion.

(5)また,本発明は,ROIと,ROIの周辺領域との明暗関係を保存して統合することを特徴とする。   (5) Further, the present invention is characterized by preserving and integrating the ROI and the light-dark relationship between the ROI and the surrounding area.

画像の各領域の明度値は,複数の撮像画像の間で大きく異なる場合がある。例えば,異なる種類の検出器を用いた場合は,各々の検出器にて検出している粒子の種類や特徴が異なるため,明度値は一般に大きく異なる。また,検出器の配置位置によっても,各検出器に到達する粒子の個数が変化するため明度値は異なる。このため,単純な重み付け加算では明暗が逆転して不自然に見える場合がある。これに対し,本発明では,統合処理の際に明度調整を行うことによりROIとROIの周辺領域との明暗関係を保存する。これにより,明暗の逆転を抑えた自然な統合を可能とする。   The brightness value of each region of the image may vary greatly between the plurality of captured images. For example, when different types of detectors are used, the brightness values generally differ greatly because the types and characteristics of the particles detected by each detector are different. Also, the brightness value varies depending on the position of the detector, because the number of particles that reach each detector changes. For this reason, with simple weighted addition, light and dark may be reversed and it may appear unnatural. On the other hand, in the present invention, the brightness relationship between the ROI and the surrounding area of the ROI is preserved by adjusting the brightness during the integration process. As a result, natural integration that suppresses the reversal of light and dark is possible.

上記(1)−(5)に示した本願発明によれば、荷電粒子顕微鏡において、複数枚の画像を撮像し、撮像画像からROIを抽出・分類した後、複数枚の撮像画像を統合して表示する際に、分類結果に応じて統合方法を制御することにより、各々のROIが見えやすい画像を提供する走査荷電粒子顕微鏡装置およびその画像表示方法を提供することができるという効果を奏します。   According to the present invention shown in the above (1) to (5), in the charged particle microscope, after capturing a plurality of images, extracting and classifying the ROI from the captured images, integrating the plurality of captured images. When displaying, by controlling the integration method according to the classification result, it is possible to provide a scanning charged particle microscope device that provides an image in which each ROI can be easily seen and its image display method.

Claims (12)

試料を撮像して複数の撮像画像を取得する画像取得ステップと、
前記画像取得ステップにて取得した該複数の撮像画像から一以上の観察対象領域を抽出する観察対象領域抽出ステップと、
前記観察対象領域抽出ステップにて抽出した該一以上の観察対象領域を分類する観察対象領域分類ステップと、
前記観察対象領域分類ステップの分類結果に基づき決定した統合方法により該複数の撮像画像を統合して統合画像を生成する画像統合ステップと、
を備える観察方法。
An image acquisition step of capturing a sample and acquiring a plurality of captured images;
An observation target region extraction step for extracting one or more observation target regions from the plurality of captured images acquired in the image acquisition step;
An observation area classification step for classifying the one or more observation areas extracted in the observation area extraction step;
An image integration step of generating an integrated image by integrating the plurality of captured images by an integration method determined based on the classification result of the observation target region classification step;
An observation method comprising:
前記観察対象領域分類ステップでは、該観察対象領域に存在する複数の対象物の高さに関する情報に基づき該一以上の観察対象領域を分類し,
前記画像統合ステップは,該対象物の高さに関する情報に基づいて統合方法を決定することを特徴とする請求項1記載の観察方法。
In the observation target region classification step, the one or more observation target regions are classified based on information on the heights of a plurality of objects existing in the observation target region,
The observation method according to claim 1, wherein the image integration step determines an integration method based on information on the height of the object.
前記観察対象領域分類ステップでは、該観察対象領域が上層パターン領域,下層領域,パターン側壁領域のうちの少なくとも二つの領域のいずれの領域に属するかを分類し,
前記画像統合ステップは,前記観察対象領域分類ステップの分類結果に基づいて統合方法を決定することを特徴とする請求項1または2記載の観察方法。
In the observation target region classification step, the observation target region is classified as to which of at least two regions of the upper layer pattern region, the lower layer region, and the pattern sidewall region belong,
The observation method according to claim 1, wherein the image integration step determines an integration method based on a classification result of the observation target region classification step.
前記画像統合ステップは,前記観察対象領域の周辺領域における該複数の撮像画像の間の形状情報に基づいて,該複数の撮像画像のうち少なくとも1枚に対して該観察対象領域および該観察対象領域の周辺領域を変形した後で統合することを特徴とする請求項1乃至3のいずれかに記載の観察方法。   The image integration step includes: observing the observation target region and the observation target region for at least one of the plurality of captured images based on shape information between the plurality of captured images in a peripheral region of the observation target region. The observation method according to claim 1, wherein the peripheral regions are integrated after being deformed. 前記画像統合ステップは,前記観察対象領域と,前記観察対象領域の周辺領域との明暗関係を保存して統合することを特徴とする請求項1乃至4のいずれかに記載の観察方法。   5. The observation method according to claim 1, wherein the image integration step preserves and integrates a light-dark relationship between the observation target region and a peripheral region of the observation target region. さらに、前記画像統合ステップにより生成した該統合画像を表示する表示ステップを備えることを特徴とする請求項1乃至5のいずれかに記載の観察方法。   The observation method according to claim 1, further comprising a display step of displaying the integrated image generated by the image integration step. 試料を撮像して複数の撮像画像を取得する画像取得部と、
前記画像取得部にて取得した該複数の撮像画像から一以上の観察対象領域を抽出する観察対象領域抽出部と、
前記観察対象領域抽出部にて抽出した該一以上の観察対象領域を分類する観察対象領域分類部と、
前記観察対象領域分類部の分類結果に基づき決定した統合方法により該複数の撮像画像を統合して統合画像を生成する画像統合部と、
を備える観察装置。
An image acquisition unit that captures a sample and acquires a plurality of captured images;
An observation target region extraction unit that extracts one or more observation target regions from the plurality of captured images acquired by the image acquisition unit;
An observation target region classification unit that classifies the one or more observation target regions extracted by the observation target region extraction unit;
An image integration unit that generates an integrated image by integrating the plurality of captured images by an integration method determined based on a classification result of the observation target region classification unit;
An observation apparatus comprising:
前記観察対象領域分類部では、該観察対象領域に存在する複数の対象物の高さに関する情報に基づき該一以上の観察対象領域を分類し,
前記画像統合部は,該対象物の高さに関する情報に基づいて統合方法を決定することを特徴とする請求項7記載の観察装置。
The observation target region classification unit classifies the one or more observation target regions based on information on the heights of a plurality of objects existing in the observation target region,
The observation apparatus according to claim 7, wherein the image integration unit determines an integration method based on information on the height of the object.
前記観察対象領域分類部では、該観察対象領域が上層パターン領域,下層領域,パターン側壁領域のうちの少なくとも二つの領域のいずれの領域に属するかを分類し,
前記画像統合部は,前記観察対象領域分類部の分類結果に基づいて統合方法を決定することを特徴とする請求項7または8記載の観察装置。
The observation target region classification unit classifies whether the observation target region belongs to at least two of the upper layer pattern region, the lower layer region, and the pattern sidewall region,
The observation apparatus according to claim 7, wherein the image integration unit determines an integration method based on a classification result of the observation target region classification unit.
前記画像統合部は,前記観察対象領域の周辺領域における該複数の撮像画像の間の形状情報に基づいて,該複数の撮像画像のうち少なくとも1枚に対して該観察対象領域および該観察対象領域の周辺領域を変形した後で統合することを特徴とする請求項7乃至9のいずれかに記載の観察装置。   The image integration unit, based on shape information between the plurality of captured images in a peripheral region of the observation target region, the observation target region and the observation target region for at least one of the plurality of captured images The observation apparatus according to claim 7, wherein the peripheral regions are integrated after being deformed. 前記画像統合部は,前記観察対象領域と,前記観察対象領域の周辺領域との明暗関係を保存して統合することを特徴とする請求項7乃至10のいずれかに記載の観察装置。   The observation apparatus according to claim 7, wherein the image integration unit stores and integrates a light-dark relationship between the observation target region and a peripheral region of the observation target region. さらに、前記画像統合部により生成した該統合画像を表示する表示部を備えることを特徴とする請求項7乃至11のいずれかに記載の観察装置。   The observation apparatus according to claim 7, further comprising a display unit that displays the integrated image generated by the image integration unit.
JP2013083478A 2013-04-12 2013-04-12 Observation apparatus and observation method Pending JP2014207110A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013083478A JP2014207110A (en) 2013-04-12 2013-04-12 Observation apparatus and observation method
US14/250,438 US9305343B2 (en) 2013-04-12 2014-04-11 Observation device and observation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013083478A JP2014207110A (en) 2013-04-12 2013-04-12 Observation apparatus and observation method

Publications (1)

Publication Number Publication Date
JP2014207110A true JP2014207110A (en) 2014-10-30

Family

ID=51686847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013083478A Pending JP2014207110A (en) 2013-04-12 2013-04-12 Observation apparatus and observation method

Country Status (2)

Country Link
US (1) US9305343B2 (en)
JP (1) JP2014207110A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038579A (en) * 2018-09-05 2020-03-12 日立造船株式会社 Information processing apparatus, information processing method, and information processing program
US10810733B2 (en) 2016-05-24 2020-10-20 Hitachi High-Tech Corporation Defect classification apparatus and defect classification method
WO2021044532A1 (en) * 2019-09-04 2021-03-11 株式会社日立ハイテク Charged particle beam device
JP2022104899A (en) * 2020-12-30 2022-07-12 エフ イー アイ カンパニ Method for executing high dynamic range charged particle analysis
US12182983B2 (en) 2018-08-15 2024-12-31 Asml Netherlands B.V. Utilize machine learning in selecting high quality averaged SEM images from raw images automatically
KR102917833B1 (en) * 2018-08-15 2026-01-28 에이에스엠엘 네델란즈 비.브이. Utilize machine learning in selecting high quality averaged sem images from raw images automatically

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9154709B2 (en) * 2012-12-21 2015-10-06 Google Inc. Recommending transformations for photography
JP2015025758A (en) * 2013-07-26 2015-02-05 Hoya株式会社 Substrate inspection method, substrate manufacturing method, and substrate inspection device
JP2016058465A (en) * 2014-09-08 2016-04-21 株式会社日立ハイテクノロジーズ Defect quantification method, defect quantification device, and defect evaluation value display device
KR102419162B1 (en) * 2015-03-17 2022-07-11 삼성전자주식회사 method for detecting patternsand substrate manufacturing apparatus using the same
FR3043818B1 (en) * 2015-11-16 2019-10-18 Synapsys SYSTEM FOR PRODUCING, TRANSMITTING AND INTERPRETING A COMPOSITE FLOW AND ASSOCIATED METHODS
JP6833366B2 (en) * 2016-07-06 2021-02-24 キヤノン株式会社 Information processing device, control method and program of information processing device
CN109478228A (en) * 2016-09-30 2019-03-15 富士通株式会社 Method, device and electronic device for fusion of classification results
CN109298778B (en) * 2017-07-24 2021-02-23 宏达国际电子股份有限公司 Tracking system and method therefor
JP6937254B2 (en) * 2018-02-08 2021-09-22 株式会社日立ハイテク Inspection system, image processing equipment, and inspection method
JP6675433B2 (en) * 2018-04-25 2020-04-01 信越化学工業株式会社 Defect classification method, photomask blank sorting method, and mask blank manufacturing method
US10878245B2 (en) * 2018-05-30 2020-12-29 Logitech Europe S.A. Video content activity regions
CN119920664A (en) * 2019-04-18 2025-05-02 株式会社日立高新技术 Charged particle beam device
US11494892B2 (en) 2020-08-21 2022-11-08 Abb Schweiz Ag Surface defect detection system
JP2023168950A (en) * 2022-05-16 2023-11-29 キヤノン株式会社 Image processor, method for processing image, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344599A (en) * 2000-06-02 2001-12-14 Hitachi Ltd All-focus image synthesizing method and apparatus
JP2011119446A (en) * 2009-12-03 2011-06-16 Hitachi High-Technologies Corp Charged particle beam device and picture quality improving method thereof
JP2011220735A (en) * 2010-04-06 2011-11-04 Hitachi High-Technologies Corp Scanning electron microscope

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965682B1 (en) * 1999-05-19 2005-11-15 Digimarc Corp Data transmission by watermark proxy
US7095871B2 (en) * 1995-07-27 2006-08-22 Digimarc Corporation Digital asset management and linking media signals with related data using watermarks
JP3490559B2 (en) * 1995-11-14 2004-01-26 富士写真フイルム株式会社 Method for determining main part of image and method for determining copy conditions
US6819783B2 (en) * 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
US6290349B1 (en) * 1999-05-25 2001-09-18 Silverbrook Research Pty Ltd Printer consumable cartridge
US6538249B1 (en) 1999-07-09 2003-03-25 Hitachi, Ltd. Image-formation apparatus using charged particle beams under various focus conditions
JP2006190693A (en) 1999-07-09 2006-07-20 Hitachi Ltd Charged particle beam equipment
WO2001015086A1 (en) * 1999-08-19 2001-03-01 Sony Corporation Image processor, image processing method, and recorded medium
JP2002032751A (en) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd Learning type image classifying device and method and recording medium with its processing program recorded thereon
US6976028B2 (en) * 2001-06-15 2005-12-13 Sony Corporation Media content creating and publishing system and process
US7380212B2 (en) * 2003-03-18 2008-05-27 Microsoft Corporation Dynamic-template incorporation of digital images in an electronic mail message
US7177881B2 (en) * 2003-06-23 2007-02-13 Sony Corporation Network media channels
JP3834041B2 (en) * 2004-03-31 2006-10-18 オリンパス株式会社 Learning type classification apparatus and learning type classification method
US7646896B2 (en) * 2005-08-02 2010-01-12 A4Vision Apparatus and method for performing enrollment of user biometric information
JP4510560B2 (en) * 2004-09-07 2010-07-28 富士重工業株式会社 Image processing device
JP4506409B2 (en) * 2004-10-27 2010-07-21 株式会社デンソー Region dividing method and apparatus, image recognition processing apparatus, program, and recording medium
US20060253782A1 (en) * 2005-04-01 2006-11-09 Vulcan Inc. Interface for manipulating multimedia playlists
US8196166B2 (en) * 2006-12-21 2012-06-05 Verizon Patent And Licensing Inc. Content hosting and advertising systems and methods
US8117256B2 (en) * 2007-01-09 2012-02-14 Yahoo! Inc. Methods and systems for exploring a corpus of content
BRPI0721462A2 (en) * 2007-03-23 2013-01-08 Thomson Licensing 2d image region classification system and method for 2d to 3d conversion
US8307392B2 (en) * 2007-06-11 2012-11-06 Yahoo! Inc. Systems and methods for inserting ads during playback of video media
US20090022403A1 (en) * 2007-07-20 2009-01-22 Fujifilm Corporation Image processing apparatus, image processing method, and computer readable medium
CN101755461B (en) * 2007-07-20 2012-06-13 富士胶片株式会社 Image processing device, image processing method
US8769437B2 (en) * 2007-12-12 2014-07-01 Nokia Corporation Method, apparatus and computer program product for displaying virtual media items in a visual media
US7894639B2 (en) * 2008-01-03 2011-02-22 International Business Machines Corporation Digital life recorder implementing enhanced facial recognition subsystem for acquiring a face glossary data
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
JP5164754B2 (en) 2008-09-08 2013-03-21 株式会社日立ハイテクノロジーズ Scanning charged particle microscope apparatus and processing method of image acquired by scanning charged particle microscope apparatus
JP5024632B2 (en) * 2008-09-19 2012-09-12 ソニー株式会社 Image processing apparatus and method, and program
US8621028B2 (en) * 2008-11-04 2013-12-31 Microsoft Corporation Content-recommendation message
US8459556B2 (en) * 2009-01-09 2013-06-11 Datalogic ADC, Inc. Prioritized virtual scan line processing
WO2010106837A1 (en) 2009-03-19 2010-09-23 株式会社日立ハイテクノロジーズ Pattern inspecting apparatus and pattern inspecting method
JP5284863B2 (en) * 2009-04-30 2013-09-11 独立行政法人理化学研究所 Image processing apparatus, image processing method, and program
US20110004922A1 (en) * 2009-07-01 2011-01-06 Microsoft Corporation User Specified Privacy Settings
US8804508B1 (en) * 2009-07-16 2014-08-12 Teradici Corporation Method and apparatus for using a network appliance to manage media communications
US20110013810A1 (en) * 2009-07-17 2011-01-20 Engstroem Jimmy System and method for automatic tagging of a digital image
US8503739B2 (en) * 2009-09-18 2013-08-06 Adobe Systems Incorporated System and method for using contextual features to improve face recognition in digital images
CN102396001A (en) * 2009-12-28 2012-03-28 松下电器产业株式会社 Moving object detection device and moving object detection method
WO2011106412A1 (en) * 2010-02-23 2011-09-01 Unity Corporation, Inc. Method and system of managing digital multimedia content
KR20120046415A (en) * 2010-11-02 2012-05-10 삼성전자주식회사 Method and system for sharing digital contents based on social network service
JP5537488B2 (en) 2011-04-15 2014-07-02 株式会社日立ハイテクノロジーズ Charged particle microscope apparatus and image capturing method
US8650252B2 (en) * 2011-09-28 2014-02-11 Facebook, Inc. Instantaneous recommendation of social interactions in a social networking system
US20130332856A1 (en) * 2012-06-10 2013-12-12 Apple Inc. Digital media receiver for sharing image streams
US20140031060A1 (en) * 2012-07-25 2014-01-30 Aro, Inc. Creating Context Slices of a Storyline from Mobile Device Data
US8806391B2 (en) * 2012-07-31 2014-08-12 United Microelectronics Corp. Method of optical proximity correction according to complexity of mask pattern
JP2014035326A (en) * 2012-08-10 2014-02-24 Toshiba Corp Defect inspection device
US20140143666A1 (en) * 2012-11-16 2014-05-22 Sean P. Kennedy System And Method For Effectively Implementing A Personal Assistant In An Electronic Network
US8701052B1 (en) * 2013-01-23 2014-04-15 United Microelectronics Corp. Method of optical proximity correction in combination with double patterning technique

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344599A (en) * 2000-06-02 2001-12-14 Hitachi Ltd All-focus image synthesizing method and apparatus
JP2011119446A (en) * 2009-12-03 2011-06-16 Hitachi High-Technologies Corp Charged particle beam device and picture quality improving method thereof
JP2011220735A (en) * 2010-04-06 2011-11-04 Hitachi High-Technologies Corp Scanning electron microscope

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810733B2 (en) 2016-05-24 2020-10-20 Hitachi High-Tech Corporation Defect classification apparatus and defect classification method
KR102917833B1 (en) * 2018-08-15 2026-01-28 에이에스엠엘 네델란즈 비.브이. Utilize machine learning in selecting high quality averaged sem images from raw images automatically
US12182983B2 (en) 2018-08-15 2024-12-31 Asml Netherlands B.V. Utilize machine learning in selecting high quality averaged SEM images from raw images automatically
JP2020038579A (en) * 2018-09-05 2020-03-12 日立造船株式会社 Information processing apparatus, information processing method, and information processing program
JP6995031B2 (en) 2018-09-05 2022-01-14 日立造船株式会社 Information processing equipment, information processing methods, and information processing programs
US20220344124A1 (en) * 2019-09-04 2022-10-27 Hitachi High-Tech Corporation Charged Particle Beam Device
CN114341631A (en) * 2019-09-04 2022-04-12 株式会社日立高新技术 Charged particle beam device
KR20220040490A (en) * 2019-09-04 2022-03-30 주식회사 히타치하이테크 charged particle beam device
JP7198360B2 (en) 2019-09-04 2022-12-28 株式会社日立ハイテク Charged particle beam device
KR102608709B1 (en) 2019-09-04 2023-12-04 주식회사 히타치하이테크 charged particle beam device
US12046446B2 (en) 2019-09-04 2024-07-23 Hitachi High-Tech Corporation Charged particle beam device
CN114341631B (en) * 2019-09-04 2024-12-31 株式会社日立高新技术 Charged particle beam device
JPWO2021044532A1 (en) * 2019-09-04 2021-03-11
WO2021044532A1 (en) * 2019-09-04 2021-03-11 株式会社日立ハイテク Charged particle beam device
JP2022104899A (en) * 2020-12-30 2022-07-12 エフ イー アイ カンパニ Method for executing high dynamic range charged particle analysis
JP7747256B2 (en) 2020-12-30 2025-10-01 エフ イー アイ カンパニ Method for performing high dynamic range charged particle analysis

Also Published As

Publication number Publication date
US20140307946A1 (en) 2014-10-16
US9305343B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
JP2014207110A (en) Observation apparatus and observation method
JP5537488B2 (en) Charged particle microscope apparatus and image capturing method
US11798780B2 (en) Charged particle beam device
JP6190768B2 (en) Electron microscope apparatus and imaging method using the same
JP5164754B2 (en) Scanning charged particle microscope apparatus and processing method of image acquired by scanning charged particle microscope apparatus
US10229812B2 (en) Sample observation method and sample observation device
JP5202071B2 (en) Charged particle microscope apparatus and image processing method using the same
JPWO2019150872A1 (en) Image processing device and image processing method
JP5380230B2 (en) Charged particle microscope apparatus and sample inspection method using the same
JP4261743B2 (en) Charged particle beam equipment
US9341579B2 (en) Defect detection apparatus, defect detection method, and computer program
TW202127374A (en) System for generating image, and non-transitory computer-readable medium
WO2016121009A1 (en) Charged particle beam device
CN116964721A (en) Learner learning method and image generation system
JP5775948B2 (en) Charged particle microscope apparatus and image capturing method
JP2006190693A (en) Charged particle beam equipment
JP2007287561A (en) Charged particle beam equipment
JP2004117208A (en) Pattern measuring device, pattern measuring method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328