[go: up one dir, main page]

JP2015025656A - Device for measuring shape formed on substrate - Google Patents

Device for measuring shape formed on substrate Download PDF

Info

Publication number
JP2015025656A
JP2015025656A JP2011213678A JP2011213678A JP2015025656A JP 2015025656 A JP2015025656 A JP 2015025656A JP 2011213678 A JP2011213678 A JP 2011213678A JP 2011213678 A JP2011213678 A JP 2011213678A JP 2015025656 A JP2015025656 A JP 2015025656A
Authority
JP
Japan
Prior art keywords
field detection
bright field
substrate
oblique
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011213678A
Other languages
Japanese (ja)
Inventor
神宮 孝広
Takahiro Jingu
孝広 神宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2011213678A priority Critical patent/JP2015025656A/en
Priority to PCT/JP2012/070949 priority patent/WO2013046998A1/en
Publication of JP2015025656A publication Critical patent/JP2015025656A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95684Patterns showing highly reflecting parts, e.g. metallic elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N2021/95638Inspecting patterns on the surface of objects for PCB's
    • G01N2021/95646Soldering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N2021/95638Inspecting patterns on the surface of objects for PCB's
    • G01N2021/95661Inspecting patterns on the surface of objects for PCB's for leads, e.g. position, curvature
    • G01N2021/95669Inspecting patterns on the surface of objects for PCB's for leads, e.g. position, curvature for solder coating, coverage

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve problems that evaluation items of a bump may be further increased in the future, but that it is not considered in conventional technology.SOLUTION: The invention comprises: a top part bright field detection system disposed in a normal direction of a substrate; a first bevel bright field detection system disposed with a first bevel to the substrate; and a second bevel bright field detection system disposed with a second bevel to the substrate. The bump is evaluated using the images acquired from the plural bright field detection systems. According to the invention, the amount of information capable of being acquired increases compared with conventional technology, so that the bump can be evaluated more precisely.

Description

本発明は、基板を計測するための装置、及び方法に関する。基板にはシリコンウェハ等様々な基板が含まれる。また、評価、計測には、例えばバンプの形成過程において形成される様々な形状、欠陥を得ること、バンプの形状を得ること、欠陥がいかなるものかを評価(分類)することが含まれる。   The present invention relates to an apparatus and method for measuring a substrate. The substrate includes various substrates such as a silicon wafer. The evaluation and measurement include, for example, obtaining various shapes and defects formed in the bump formation process, obtaining bump shapes, and evaluating (classifying) what the defects are.

様々な電子製品に用いられる半導体はウェハに対して様々な処理を施すことで製造される。この半導体製造工程は大きく前工程、後工程に分けられる。まず、前工程について説明する。前工程には、ウェハの酸化、ウェハへのフォトレジストの塗布、露光によるパターン形成、エッチング、酸化・拡散・CVD・イオン注入、平坦化、電極形成、検査が含まれる。前工程によって、ウェハ上に必要な半導体素子の作りこみが行われる。次に、後工程について説明する。後工程には、前工程によって処理されたウェハをチップごとに切り出す工程、切り出したチップをパッケージ基板へ固定する工程、モールド工程が含まれる。   Semiconductors used in various electronic products are manufactured by performing various processes on wafers. This semiconductor manufacturing process is roughly divided into a pre-process and a post-process. First, the previous process will be described. The pre-process includes wafer oxidation, photoresist application to the wafer, pattern formation by exposure, etching, oxidation / diffusion / CVD / ion implantation, planarization, electrode formation, and inspection. In the pre-process, necessary semiconductor elements are formed on the wafer. Next, a post process is demonstrated. The post-process includes a process of cutting out the wafer processed in the pre-process for each chip, a process of fixing the cut-out chip to the package substrate, and a molding process.

ここで、チップをパッケージ基板へ固定する工程は、バンプと呼ばれる突起電極をチップに形成し、このバンプを介してチップ・パッケージ基板を接続するフリップチップボンディングが使用されることがある。フリップチップボンディングにおいて、バンプの形状、バンプ上の欠陥の有無等は、チップ・パッケージ基板間の電気特性、すなわち半導体の電気特性に影響を与えるため重要である。よって、基板に形成された形状を評価すること、例えば、バンプの形成過程、及び形成されたバンプを計測すること(バンプ計測)が必要となる。   Here, the step of fixing the chip to the package substrate may use flip chip bonding in which protruding electrodes called bumps are formed on the chip and the chip package substrate is connected via the bumps. In flip chip bonding, the shape of a bump, the presence or absence of defects on the bump, etc. are important because they affect the electrical characteristics between the chip and the package substrate, that is, the electrical characteristics of the semiconductor. Therefore, it is necessary to evaluate the shape formed on the substrate, for example, to form a bump and measure the formed bump (bump measurement).

従来技術としては、特許文献1乃至3の光学式の評価装置が提案されている。   As prior art, optical evaluation apparatuses of Patent Documents 1 to 3 have been proposed.

米国特許第7286218号公報US Pat. No. 7,286,218 米国特許第7064821号公報US Pat. No. 7,064,821 米国特許第7126699号公報US Pat. No. 7,126,699

バンプの評価項目は今後多岐に及ぶことが予想される。従来技術においては、この点に関する配慮がなされていなかった。   Bump evaluation items are expected to vary in the future. In the prior art, no consideration has been given to this point.

本発明は、複数の結像光学系(例えば、明視野光学系)にて、バンプを評価することを特徴とする。   The present invention is characterized in that bumps are evaluated by a plurality of imaging optical systems (for example, bright field optical systems).

本発明によれば、従来よりも精度の高いバンプの評価を行うことが可能となる。   According to the present invention, it is possible to evaluate a bump with higher accuracy than in the past.

本実施例のバンプ計測システムの構成。Configuration of the bump measurement system of this embodiment. 画像処理を説明する図。The figure explaining image processing. 評価部128の詳細を説明する図。The figure explaining the detail of the evaluation part 128. FIG. 第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。The figure explaining from what kind of information the evaluation item and its evaluation item in a 1st process are obtained. 第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。The figure explaining the evaluation item in a 1st process, and what kind of information the evaluation item is obtained from (continuation). 第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。The figure explaining from what kind of information the evaluation item and its evaluation item in a 2nd process are obtained. 第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。The figure explaining from what kind of information the evaluation item and its evaluation item in a 2nd process are obtained (continuation). 第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。The figure explaining from what kind of information the evaluation item and its evaluation item in a 3rd process are obtained. 第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。The figure explaining the evaluation item in a 3rd process, and what kind of information the evaluation item is obtained from (continuation). 第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図。The figure explaining from what kind of information the evaluation item and its evaluation item in a 4th process are obtained. 第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図(続き)。The figure explaining the evaluation item in a 4th process, and what kind of information the evaluation item is obtained from (continuation). 側壁計測、及びペースト材の充填不良計測を説明する図。The figure explaining side wall measurement and the filling defect measurement of a paste material. 画像の読み出しを説明する図。The figure explaining reading of an image. 1次元ラインセンサ106、第2の1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係を説明する図。The figure explaining the positional relationship of the visual field of the one-dimensional line sensor 106, the 2nd one-dimensional line sensor 107, the two-dimensional sensor 118, and the two-dimensional sensor 123. 実施例2を説明する図。FIG. 6 is a diagram illustrating a second embodiment.

以下図面を用いて実施例を説明する。   Embodiments will be described below with reference to the drawings.

本実施例のバンプ計測システムの構成について図1を用いて説明する。本実施例のバンプ計測システムは、基板を固定して走査するためのステージ1300、基板の法線方向に配置された上方明視野検出系1000、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100、基板に対して第2の斜角で配置された第2の斜方明視野検出系1200、を備える。   The configuration of the bump measurement system of this embodiment will be described with reference to FIG. The bump measurement system of the present embodiment is arranged with a stage 1300 for scanning with the substrate fixed, an upper bright field detection system 1000 arranged in the normal direction of the substrate, and a first oblique angle with respect to the substrate. A first oblique bright field detection system 1100 and a second oblique bright field detection system 1200 disposed at a second oblique angle with respect to the substrate are provided.

まず、上方明視野検出系1000の構成について説明する。照明系101からの光はレンズ10、ハーフミラー102を経由し、対物レンズ103を経由して基板上に照明される。基板からの光(例えば正反射光)は対物レンズ103によって集光される。集光された光は可変開口104を経由し、結像レンズ105によって結像されることになる。なお、結像レンズ105の結像側にはビームスプリッタ106が配置されており、結像レンズ105を経由した光は2つに分岐されることになる。分岐された光は、第1の1次元ラインセンサ106(SCU)、及び1次元ラインセンサ106とは異なる焦点位置に配置された第2の1次元ラインセンサ107(SCD)で検出される(焦点位置を同じにしても良い)。なお、結像レンズ105の結像側には、得られた像を観察するための可動式全反射ミラー108、レンズ109、観察カメラ110が配置されている。なお、照明系101は後述する照明方式1:ランプ(バルブ)による明視野落射照明/暗視野照明と、照明方式2:LEDによる多点発光光源による平行照明との切り替えのために、ランプ光源1400、多点LED光源1500、及び切り替え機構1600を有する。   First, the configuration of the upper bright field detection system 1000 will be described. Light from the illumination system 101 passes through the lens 10 and the half mirror 102 and is illuminated on the substrate through the objective lens 103. Light from the substrate (for example, regular reflection light) is collected by the objective lens 103. The condensed light is imaged by the imaging lens 105 via the variable aperture 104. Note that a beam splitter 106 is disposed on the imaging side of the imaging lens 105, and the light that has passed through the imaging lens 105 is branched into two. The branched light is detected by the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD) arranged at a focal position different from the one-dimensional line sensor 106 (focus). The position may be the same). Note that a movable total reflection mirror 108, a lens 109, and an observation camera 110 for observing the obtained image are arranged on the imaging side of the imaging lens 105. The illumination system 101 is a lamp light source 1400 for switching between illumination method 1: bright field epi-illumination / dark field illumination using a lamp (bulb) and illumination method 2: parallel illumination using a multipoint light source using LEDs. The multi-point LED light source 1500 and the switching mechanism 1600.

次に、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100について説明する。光源111からの光はハーフミラー112によって分岐される。分岐された1つの光はさらに全反射ミラー113によって反射され、レンズ20を介して第1の斜方明視野検出系1100に入射する。入射した光は、ハーフミラー114によって反射され、対物レンズ115によって基板上に第1の斜角で照明される。基板からの光(例えば正反射光)は対物レンズ115によって集光される。集光された光は、結像レンズ116によって結像されることになる。なお、結像レンズ116の結像側には透明強誘電体セラミックス系の材料(以降はPLZTと称す)によって構成された光学的シャッタ117が配置される。ここで、PLZTを用いた光学的シャッタについて概説する。本実施例のバンプ計測システムは、光学的シャッタ117、後述する光学的シャッタ122を駆動するための電源を有する。この電源から電圧が印加されるとPLZTの複屈折率は変化する。つまり、PLZTは電圧の印加によってシャッタとしての役割を果たすことになる。また、PLZTのシャッタとしての機能は電圧を印加する周波数に依存しており、高速応答が可能である。なお、PLZTの代替えとして液晶式のシャッタや機械式のシャッタを採用しても良い。   Next, the first oblique bright field detection system 1100 arranged at a first oblique angle with respect to the substrate will be described. The light from the light source 111 is branched by the half mirror 112. The branched light is further reflected by the total reflection mirror 113 and enters the first oblique bright field detection system 1100 via the lens 20. The incident light is reflected by the half mirror 114 and illuminated by the objective lens 115 on the substrate at the first oblique angle. Light from the substrate (for example, regular reflection light) is collected by the objective lens 115. The condensed light is imaged by the imaging lens 116. An optical shutter 117 made of a transparent ferroelectric ceramic material (hereinafter referred to as PLZT) is disposed on the imaging side of the imaging lens 116. Here, an outline of an optical shutter using PLZT will be described. The bump measurement system of this embodiment has a power source for driving an optical shutter 117 and an optical shutter 122 described later. When a voltage is applied from this power supply, the birefringence of PLZT changes. That is, PLZT serves as a shutter by applying a voltage. Further, the function of the PLZT as a shutter depends on the frequency to which the voltage is applied, and a high-speed response is possible. Note that a liquid crystal shutter or a mechanical shutter may be employed as an alternative to PLZT.

光学的シャッタ117を経由した光は2次元センサ118(SB)(例えば電荷蓄積型センサの1種である時間遅延積分型センサ)によって撮像されることになる。なお、ここで、2次元センサ118を使用した撮像に当たっては、センサの全画素を使用するのではなく、設計基準情報に応じて一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。   The light passing through the optical shutter 117 is imaged by a two-dimensional sensor 118 (SB) (for example, a time delay integration type sensor which is a kind of charge storage type sensor). Here, in imaging using the two-dimensional sensor 118, it is possible not to use all the pixels of the sensor but to selectively use a set of some arbitrary pixels according to the design standard information. It is. This arbitrary set of pixels can be expressed as an effective area.

基板に対して第2の斜角で配置された第2の斜方明視野検出系1200について説明する。光源111からの光はハーフミラー112によって分岐される。分岐されたもう1つの光は、レンズ30を介して第2の斜方明視野検出系1200に入射する。入射した光は、ハーフミラー119によって反射され、対物レンズ120によって基板上に第2の斜角で照明される。基板からの光(例えば正反射光)は対物レンズ120によって集光される。集光された光は、結像レンズ121によって結像されることになる。なお、結像レンズ121の結像側にはPLZTによって構成された光学的シャッタ122が配置される。光学的シャッタ122を経由した光は2次元センサ123(SF)(例えば時間遅延積分型センサ)によって撮像されることになる。なお、ここで、2次元センサ123を使用した撮像に当たっては、センサの全画素を使用するのではなく、設計基準情報に応じて一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。   A second oblique bright field detection system 1200 arranged at a second oblique angle with respect to the substrate will be described. The light from the light source 111 is branched by the half mirror 112. The other branched light enters the second oblique bright field detection system 1200 via the lens 30. The incident light is reflected by the half mirror 119 and illuminated on the substrate by the objective lens 120 at a second oblique angle. Light from the substrate (for example, regular reflection light) is collected by the objective lens 120. The condensed light is imaged by the imaging lens 121. An optical shutter 122 composed of PLZT is disposed on the imaging side of the imaging lens 121. The light passing through the optical shutter 122 is imaged by a two-dimensional sensor 123 (SF) (for example, a time delay integration type sensor). Here, in imaging using the two-dimensional sensor 123, it is possible not to use all the pixels of the sensor but to selectively use a set of some arbitrary pixels according to the design standard information. It is. This arbitrary set of pixels can be expressed as an effective area.

ここで、可変開口104、40、50は検出しようとする欠陥の性質(サイズ等)に応じて焦点深度を変えることができる。また、可変開口104、30、50は後述する設計基準情報から読み出した基板の凹凸に応じて合焦するように焦点深度を変えることができる。   Here, the variable apertures 104, 40 and 50 can change the depth of focus according to the nature (size, etc.) of the defect to be detected. Further, the variable apertures 104, 30, and 50 can be changed in depth of focus so as to be focused in accordance with the unevenness of the substrate read from design reference information described later.

なお、第1の斜方明視野検出系1100はステージ1300のX軸の走査方向に対して進行方向反対側に配置されており、第2の斜方明視野検出系1200はステージ1300のX軸の走査方向に対して進行方向側に配置されている。これは言い換えるなら、基板上方から見た場合に、上方明視野検出系1000、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200は、ステージ1300のX軸の走査方向上に配置されている、ステージ1300のX軸の走査方向に沿って配置されていると表現することもできる。
なお、上方明視野検出系1000、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200をステージ1300のY軸の走査方向上に配置しても良い。
The first oblique bright field detection system 1100 is disposed on the opposite side of the traveling direction with respect to the scanning direction of the X axis of the stage 1300, and the second oblique bright field detection system 1200 is composed of the X axis of the stage 1300. It is arranged on the traveling direction side with respect to the scanning direction. In other words, when viewed from above the substrate, the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 scan the X axis of the stage 1300. It can also be expressed as being arranged along the X-axis scanning direction of the stage 1300 arranged in the direction.
Note that the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200 may be arranged on the Y axis scanning direction of the stage 1300.

また、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200の少なくとも1つは系全体で、後述する設計基準情報に基づいて、その傾きを変えることが可能である。つまり、第1の斜角、及び第2の斜角は任意に変更することができる。より具体的には、第1の斜方明視野検出系1100、及び第2の斜方明視野検出系1200の少なくとも1つは、設計基準情報に応じて(例えば検出すべきバンプの面の角度)第1の斜角、及び第2の斜角を任意に変更することができる。さらに、後述するホールの内側側壁を観察することも可能になる。   Further, at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 can change the inclination of the entire system based on design criteria information described later. is there. That is, the first oblique angle and the second oblique angle can be arbitrarily changed. More specifically, at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 is in accordance with design criteria information (for example, the angle of the bump surface to be detected). ) The first oblique angle and the second oblique angle can be arbitrarily changed. Furthermore, it becomes possible to observe the inner side wall of the hole described later.

また、2次元センサ118、及び2次元センサ123の少なくとも1つは、後述する設計基準情報に基づいて、検出光軸に対して前後に動くことが可能である。つまり、焦点を任意に変更することが可能になる。より、具体的には、2次元センサ118、及び2次元センサ123の少なくとも1つは、検出すべきバンプの高さ、及び距離の少なくとも1つに応じて、検出光軸に対して前後に動くものである。   Further, at least one of the two-dimensional sensor 118 and the two-dimensional sensor 123 can move back and forth with respect to the detection optical axis based on design reference information described later. That is, the focal point can be arbitrarily changed. More specifically, at least one of the two-dimensional sensor 118 and the two-dimensional sensor 123 moves back and forth with respect to the detection optical axis according to at least one of the height and the distance of the bump to be detected. Is.

さらに、2次元センサ118は光学的シャッタ117の開閉に同期して電荷を蓄積するものである。これは、2次元センサ118の電荷蓄積の開始は光学的シャッタ117の開動作によって制御され、電荷蓄積の終了は光学的シャッタ117の閉動作によって制御されることを意味する。そして、2次元センサ118の電荷蓄積の電荷蓄積時間は、光学的シャッタ117が開いてから閉じるまでの時間に対応していることを意味している。さらに、2次元センサ123は光学的シャッタ122の開閉に同期して電荷を蓄積するものである。これは、2次元センサ123の電荷蓄積の開始は光学的シャッタ122の開動作によって制御され、電荷蓄積の終了は光学的シャッタ122の閉動作によって制御されることを意味する。そして、2次元センサ123の電荷蓄積の電荷蓄積時間は、光学的シャッタ122が開いてから閉じるまでの時間に対応していることを意味している。さらに、2次元センサ118、2次元センサ123で得られた画像はそれぞれ独立して読みだすことができる。   Further, the two-dimensional sensor 118 accumulates charges in synchronization with the opening / closing of the optical shutter 117. This means that the start of charge accumulation of the two-dimensional sensor 118 is controlled by the opening operation of the optical shutter 117, and the end of charge accumulation is controlled by the closing operation of the optical shutter 117. The charge accumulation time of the charge accumulation of the two-dimensional sensor 118 corresponds to the time from when the optical shutter 117 is opened until it is closed. Further, the two-dimensional sensor 123 accumulates charges in synchronization with the opening / closing of the optical shutter 122. This means that the start of charge accumulation of the two-dimensional sensor 123 is controlled by the opening operation of the optical shutter 122, and the end of charge accumulation is controlled by the closing operation of the optical shutter 122. The charge accumulation time of the charge accumulation of the two-dimensional sensor 123 means that it corresponds to the time from when the optical shutter 122 is opened until it is closed. Furthermore, the images obtained by the two-dimensional sensor 118 and the two-dimensional sensor 123 can be independently read out.

次に、画像処理について説明する。   Next, image processing will be described.

上述したように、第1の斜方明視野検出系1100からは2つの画像(第1の画像、第2の画像)が得られる。第1の斜方明視野検出系1100からは1つの画像が得られる。
第2の斜方明視野検出系1200は1つの画像が得られる。つまり、本実施例のバンプ計測システムでは、1つの検査領域から4つの画像が得られることになる。本実施例のバンプ計測システムは、この4つの画像のうち少なくとも1つ以上を用いてバンプに関する情報を得るものである。
As described above, two images (first image and second image) are obtained from the first oblique bright field detection system 1100. One image is obtained from the first oblique bright field detection system 1100.
The second oblique bright field detection system 1200 can obtain one image. That is, in the bump measurement system of the present embodiment, four images are obtained from one inspection area. The bump measurement system according to the present embodiment obtains information regarding bumps using at least one of the four images.

より、具体的に図2を用いて説明する。   More specific description will be given with reference to FIG.

まず、各検出系がどのように画像を取得するか説明する。まず、第1の1次元ラインセンサ106(SCU)、及び第2の1次元ラインセンサ107の撮像について説明する。
第1の1次元ラインセンサ106(SCU)、及び第2の1次元ラインセンサ107の撮像は、撮像を始める最初のダイ(1stダイ)の最初のバンプ(1stバンプ)の位置をチップ原点からの設計値に基づいて認識し、1stバンプを撮像することにより第1の画像、第2の画像を得る。
First, how each detection system acquires an image will be described. First, imaging of the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 will be described.
Imaging of the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 is performed by setting the position of the first bump (1st bump) of the first die (1st die) to start imaging from the chip origin. The first image and the second image are obtained by recognizing based on the design value and imaging the first bump.

第1の1次元ラインセンサ106(SCU)で得られた第1の画像は、ホール位置を認識するためのホール位置認識部50で送られる。また、第1の画像は、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つを駆動するためのトリガを生成するためにも使用される。生成されたトリガは、ステージ同期撮像制御部124を送られる。このトリガによって、光学的シャッタ117、及び光学的シャッタ122の少なくとも1つは駆動され、さらに光学的シャッタ117、及び光学的シャッタ122の少なくとも1つの開閉に同期して2次元センサ118、2次元センサ123の少なくとも1つは蓄積時間を変えることになる。   The first image obtained by the first one-dimensional line sensor 106 (SCU) is sent by the hole position recognition unit 50 for recognizing the hole position. The first image is also used to generate a trigger for driving at least one of the optical shutter 117 and the optical shutter 122. The generated trigger is sent to the stage synchronous imaging control unit 124. By this trigger, at least one of the optical shutter 117 and the optical shutter 122 is driven, and the two-dimensional sensor 118 and the two-dimensional sensor are synchronized with the opening / closing of at least one of the optical shutter 117 and the optical shutter 122. At least one of 123 will change the accumulation time.

次のバンプ(2ndバンプ)はチップ原点からではなく、1stバンプの撮像位置からの設計ピッチにステージ移動量を合わせることで撮像を行う。N番目のバンプについても同様である。さらに、次のダイ(2ndダイ)の1stバンプについては、1stダイの最後のバンプ位置から2ndダイの1stバンプまでの間隔を得ておいて、この間隔にステージの移動量を合わせる。   The next bump (2nd bump) is imaged by adjusting the stage movement amount to the design pitch from the imaging position of the 1st bump, not from the chip origin. The same applies to the Nth bump. Further, for the 1st bump of the next die (2nd die), an interval from the last bump position of the 1st die to the 1st bump of the 2nd die is obtained, and the amount of movement of the stage is adjusted to this interval.

観察カメラ110にて得られた画像は、基板を位置決めするための情報を得るアライメント処理部125へ送られる。観察カメラ110にて得られた画像から基板を位置決めするための情報が得られる。基板を位置決めするための情報は、一旦ホストCPU126へ送信された後、メカ制御部127へ送信される。基板を位置決めするための情報に基づき、ステージは上下に駆動する。これにより、いわゆるオートフォーカスが可能となる。   The image obtained by the observation camera 110 is sent to the alignment processing unit 125 that obtains information for positioning the substrate. Information for positioning the substrate is obtained from an image obtained by the observation camera 110. Information for positioning the substrate is once transmitted to the host CPU 126 and then transmitted to the mechanical control unit 127. Based on the information for positioning the substrate, the stage is driven up and down. Thereby, so-called autofocus is possible.

なお、画像処理の処理量は評価すべきバンプや形状の密度や配置の仕方に依存する。よって、本実施例のステージ1300は、バンプや基板表面に形成された形状の密度や配置の仕方に応じ、その速度を変更する。例えば、密度が低ければステージ1300の速度はより速くなるし、密度が高ければステージ1300の速度は遅くなる。   Note that the amount of image processing depends on the density of bumps and shapes to be evaluated and the manner in which they are arranged. Therefore, the stage 1300 of this embodiment changes its speed according to the density of the bumps and the shape formed on the substrate surface and the way of arrangement. For example, if the density is low, the speed of the stage 1300 becomes faster, and if the density is high, the speed of the stage 1300 becomes slower.

第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像は、評価部128へ送られる。ステージからの座標値もステージ同期撮像制御部124を経由して、評価部128へ送られる。上記4つの画像と座標値とを関連づけることでいずれの領域を検査しているか知ることができる。また、いずれの領域を検査すべきか選択することもできる。   A first image obtained by the first one-dimensional line sensor 106 (SCU), a second image obtained by the second one-dimensional line sensor 107 (SCD), and a first oblique bright field detection system 1100 3 and the fourth image obtained from the second oblique bright field detection system 1200 are sent to the evaluation unit 128. Coordinate values from the stage are also sent to the evaluation unit 128 via the stage synchronous imaging control unit 124. It is possible to know which region is being inspected by associating the four images with the coordinate values. It is also possible to select which region should be inspected.

検査領域選択部127へ送信された4つの画像は評価部128へ送られる。ここで、4つの画像の少なくとも1つを使用して、バンプの評価が行われる。ここで、バンプの評価には、バンプ(又はバンプとなるべきペースト材料)の欠陥の有無を評価する欠陥判定、欠陥の寸法計測、欠陥分類、バンプとなるべきペースト材料の高さ計測、ペースト材料を充填すべき穴(ホール)の深さ形成、ホールの壁の角度計測、ペースト材料の体積推定が含まれる。評価結果はホストCPU126へ送信され、モニタ129によってマップとして作業者へ表示される。   The four images transmitted to the inspection area selection unit 127 are sent to the evaluation unit 128. Here, bump evaluation is performed using at least one of the four images. Here, for the evaluation of the bump, defect determination for evaluating the presence or absence of defects in the bump (or paste material to be bump), defect dimension measurement, defect classification, height measurement of the paste material to be bump, paste material This includes depth formation of holes to be filled, hole wall angle measurement, and volume estimation of paste material. The evaluation result is transmitted to the host CPU 126 and displayed on the operator as a map by the monitor 129.

また、評価結果は、同時にI/F部130を介してマネジメントシステム131へ送信され、歩留まり管理に使用される。ホストCPU126には基板搬送装置132も接続されており、基板の搬送はホストCPUからの情報に基づいて基板搬送装置132によって行われる。   The evaluation result is simultaneously transmitted to the management system 131 via the I / F unit 130 and used for yield management. A substrate transfer device 132 is also connected to the host CPU 126, and the substrate transfer is performed by the substrate transfer device 132 based on information from the host CPU.

次に、評価部128の詳細について説明する。図3は評価部128の詳細を説明する図である。第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像は、バッファ部300へ送られる。バッファ部300では、第1の画像、第2の画像、第3の画像、第4の画像それぞれから、各検出器間の距離に関する情報、第3の画像、第4の画像については有効領域のセンサ内での場所に関する情報、位置情報を使用して、バンプの画像(必要に応じてバンプ周辺の画像も含む)が切りだされる。つまり、1つのバンプについて4種類のバンプの画像が得られる。   Next, details of the evaluation unit 128 will be described. FIG. 3 is a diagram for explaining the details of the evaluation unit 128. A first image obtained by the first one-dimensional line sensor 106 (SCU), a second image obtained by the second one-dimensional line sensor 107 (SCD), and a first oblique bright field detection system 1100 The third image obtained from the second image and the fourth image obtained from the second oblique bright field detection system 1200 are sent to the buffer unit 300. In the buffer unit 300, information on the distance between the detectors, the third image, and the fourth image are obtained from the first image, the second image, the third image, and the fourth image, respectively. Using the information about the location in the sensor and the position information, an image of the bump (including an image around the bump if necessary) is cut out. That is, four types of bump images are obtained for one bump.

切りだされたバンプの画像は特徴量抽出部310に送られる。特徴量抽出部310では、例えば画像内の輝度に関する情報等の特徴量が抽出される。   The image of the cut bump is sent to the feature amount extraction unit 310. In the feature quantity extraction unit 310, for example, feature quantities such as information about luminance in the image are extracted.

同時に、切りだされたバンプの画像は3D像合成部320へ送られる。3D像合成部320では、第1の斜角、第2の斜角の大きさ、各検出光学系の焦点深度、焦点面の間隔の情報を用いてバンプの3D(3次元)像が作成される。   At the same time, the cut image of the bump is sent to the 3D image composition unit 320. The 3D image composition unit 320 creates a 3D (three-dimensional) image of the bump using information on the first and second oblique angles, the depth of focus of each detection optical system, and the focal plane spacing. The

特徴量、及び3D像は評価部128内の処理部330へ送られる。処理部330では、特徴量、3D像、設計基準情報(例:後述する正常ホールの輪郭線、バンプ配列、ホール深さ、バンプサイズ等)、閾値を使用して、バンプの評価を行う。ここで、バンプ評価には、バンプ(又はバンプとなるべきペースト材料)の欠陥(後述するParticle,Residue,Chipping,Dent,Projection,Cracking等)の有無を評価する欠陥判定、欠陥の寸法計測、欠陥分類、バンプとなるべきペースト材料の高さ(後述するSOD Height)計測、ペースト材料を充填すべき穴(ホール)の寸法(後述するGeometry)計測、ホールの壁の角度計測、ペースト材料の体積推定が含まれる。さらに、これらのバンプ評価は、全て座標と対応づけて行われる。ここで、設計基準情報は既定の値ではなく、作業者が任意に変更しても良い。   The feature amount and the 3D image are sent to the processing unit 330 in the evaluation unit 128. The processing unit 330 evaluates the bumps using the feature amount, the 3D image, the design reference information (eg, normal hole outline, bump arrangement, hole depth, bump size, etc. described later), and threshold values. Here, for bump evaluation, defect determination for evaluating the presence or absence of defects (Particle, Residue, Chipping, Dent, Projection, Cracking, etc., which will be described later) of bumps (or paste material to be bumps), dimension measurement of defects, defects Classification, measurement of the height of the paste material to be bumped (SOD Height described later), measurement of the dimension of the hole (hole) to be filled with the paste material (Geometry described later), angle measurement of the wall of the hole, volume estimation of the paste material Is included. Furthermore, these bump evaluations are all performed in association with the coordinates. Here, the design standard information is not a predetermined value, and may be arbitrarily changed by an operator.

バンプ評価によって、得られた評価結果は、結果ファイル生成部340へ送られる。結果ファイル生成部340では、欠陥位置、サイズ、分類結果、3D像、統計データ等作業者によって有益な情報を整理し、整理した情報をホストCPU126へ送信する。   The evaluation result obtained by the bump evaluation is sent to the result file generation unit 340. The result file generation unit 340 organizes useful information such as the defect position, size, classification result, 3D image, and statistical data by the operator, and transmits the arranged information to the host CPU 126.

次にバンプ評価についてさらに詳細に説明する。本実施例のバンプ計測システムは評価を行うバンプ形成プロセスごとに評価すべき項目を変更することが可能である。バンプ形成プロセスは大きく4つの工程に分けられる。第1工程はバンプの根元をとなるべき銅の台を形成する工程である。第2工程は第1工程で形成した銅の台の周囲に壁を形成し、バンプの突起となるべきペースト材料を充填するための穴(ホール)を形成する工程である。第3工程はホールにペースト材料を充填する工程である。第4工程は第2工程で形成した壁を除去する工程である。本実施例のバンプ計測システムでは、例えばこの4工程についてそれぞれ適切にバンプの評価を行うことができる。以降、詳細を説明するが、バンプ評価は後述する様々な情報と設計基準情報(例:正常ホールの輪郭線、バンプ配列、ホール深さ、バンプサイズ等)とが比較されることにより行われる。   Next, the bump evaluation will be described in more detail. The bump measurement system of this embodiment can change items to be evaluated for each bump forming process to be evaluated. The bump formation process is roughly divided into four steps. The first step is a step of forming a copper base to be the base of the bump. In the second step, a wall is formed around the copper base formed in the first step, and a hole (hole) for filling a paste material to be a bump protrusion is formed. The third step is a step of filling the hole with a paste material. The fourth step is a step of removing the wall formed in the second step. In the bump measurement system of the present embodiment, for example, bumps can be appropriately evaluated for each of these four steps. Hereinafter, although details will be described, the bump evaluation is performed by comparing various information described later with design standard information (for example, normal hole outline, bump arrangement, hole depth, bump size, etc.).

まず、第1工程でのバンプ評価について説明する。図4、及び図5は第1工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。   First, the bump evaluation in the first step will be described. 4 and 5 are diagrams for explaining the evaluation items in the first step and what information the evaluation items are obtained from.

Particle400(異物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の暗像から判断される。この暗像は、照明光の散乱に起因するものである。   Particle 400 (foreign matter) is obtained from a dark image in the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). To be judged. This dark image is caused by scattering of illumination light.

Residue410(残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像のコントラストから判断される。コントラストには、例えばResidue410に照明光が照明された際の散乱によるコントラスト、Residue410と他の領域とで反射率が異なることによるコントラスト、Residue410が透過性薄膜では干渉によるコントラストが含まれる。なお、Residue410に有る程度の厚さがあれば、Residue410の端部は暗像となるはずである。この暗像の情報も使用される。   Residue 410 (residue) is determined from the contrast of the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). Is done. The contrast includes, for example, a contrast due to scattering when illumination light is illuminated on the Residue 410, a contrast due to a difference in reflectance between the Residue 410 and other regions, and a contrast due to interference when the Residue 410 is a transmissive thin film. If the Residue 410 is thick enough, the end of the Residue 410 should be a dark image. This dark image information is also used.

Surface Roughness420(表面粗さ)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像のコントラストから得られる。   Surface Roughness 420 (surface roughness) is the contrast between the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). Obtained from.

Chipping430(切れ端),Dent(へこみ),Projection(突起)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像でのコントラスト、及びその位置、及び第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。   Chipping 430 (cut end), Dent (dent), and Projection (projection) are obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD). Contrast in the second image and its position, and a third image obtained from the first oblique bright field detection system 1100 and a fourth image obtained from the second oblique bright field detection system 1200. It is judged from the image.

基板法線方向のChipping430(切れ端)は第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像では図5画像500に示すように端部が暗く表示される。   Chipping 430 (cut edge) in the normal direction of the substrate is the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). As shown in the image 500 in FIG. 5, the end portion is displayed darkly.

また、基板斜方でのChipping430(切れ端)は、Chipping430が第1の斜方明視野検出系1100に対向していれば、得られた画像510でのChipping430は明るく表示される(第2の斜方明視野検出系1200でも同様である)。また、Chipping430が第1の斜方明視野検出系1100に対向してなければ(第1の斜方明視野検出系の基板上の射影に対して概略90°方向にあれば)、得られた画像520でのChipping430は暗く表示される(第2の斜方明視野検出系1200でも同様である)。また、Chipping430が第1の斜方明視野検出系1100とは正反対の方向にある場合でも、輪郭抽出(実際に得られた銅の台の画像60と設計基準情報の1種である基準楕円61との差分を得ること)を行うことでChipping430を判定することができる。なお、輪郭抽出を用いた判定は、上述したChipping430が第1の斜方明視野検出系1100に対向している場合、Chipping430が第1の斜方明視野検出系1100に対向していない場合にも適用することができる。   Further, the chipping 430 (cut end) on the substrate diagonal is brightly displayed on the obtained image 510 if the chipping 430 faces the first oblique bright field detection system 1100 (second diagonal). The same applies to the bright field detection system 1200). Further, when the Chipping 430 is not opposed to the first oblique bright field detection system 1100 (if it is in the direction of approximately 90 ° with respect to the projection on the substrate of the first oblique bright field detection system), it was obtained. The Chipping 430 in the image 520 is displayed darkly (the same applies to the second oblique bright field detection system 1200). Further, even when the Chipping 430 is in the opposite direction to the first oblique bright field detection system 1100, contour extraction (a copper ellipse image 60 actually obtained and a reference ellipse 61 which is a kind of design reference information) are obtained. The chipping 430 can be determined. The determination using the contour extraction is performed when the above-described Chipping 430 faces the first oblique bright field detection system 1100 or when the Chipping 430 does not face the first oblique bright field detection system 1100. Can also be applied.

Dent440(へこみ)は、図5画像540〜560に示す通り輪郭が太く、Dent440(へこみ)全体が暗く表示される。Projection450(突起)は、図5画像570〜590に示すように輪郭は細く、中心部は明るく表示される。よって、この差異を利用することで、Dent440(へこみ),Projection450(突起)を判別することが可能となる。   As shown in the images 540 to 560 in FIG. 5, the Dent 440 (dent) has a thick outline, and the entire Dent 440 (dent) is displayed darkly. As shown in the images 570 to 590 in FIG. 5, the projection 450 (projection) has a thin outline and a bright central portion. Therefore, by using this difference, it is possible to discriminate between Dent 440 (dent) and Projection 450 (projection).

Cracking460(ひび)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。   Cracking 460 (crack) is the illumination light in the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). Judged from the dark image due to scattering.

Cu Die Height470(銅の台の高さ)は、図4画像471、画像472に示す通り、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像の形状から判断される。さらに、Geometry(φx,φy)480(銅の台の形状)、Alignment481(ある方向からの角度)、pitch482は、図4画像483に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つから得ることができる。   Cu Die Height 470 (the height of the copper platform) is the third image obtained from the first oblique bright field detection system 1100 and the second oblique illumination, as shown in FIG. 4 image 471 and image 472. This is determined from the shape of the fourth image obtained from the visual field detection system 1200. Further, Geometry (φx, φy) 480 (the shape of a copper base), Alignment 481 (angle from a certain direction), and pitch 482 are obtained by the first one-dimensional line sensor 106 (SCU) as shown in an image 483 in FIG. The first image obtained can be obtained from at least one of the second images obtained by the second one-dimensional line sensor 107 (SCD).

次に、第2工程でのバンプ評価について説明する。図6、及び図7は第2工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。   Next, bump evaluation in the second step will be described. 6 and 7 are diagrams for explaining the evaluation items in the second step and what information the evaluation items can be obtained from.

ホールの形成に起因するResidue601(残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。   Residue 601 (residue) resulting from the formation of the hole is a first image obtained by the first one-dimensional line sensor 106 (SCU), and a second image obtained by the second one-dimensional line sensor 107 (SCD). It is judged from the dark image by scattering of the illumination light in the image.

Side Wall Crack602、及びBlunt Prominence603(広がりを持った滑らかな盛り上がり)は、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像を使用して得ることができる。具体的に説明する。Side Wall Crack602、及びBlunt Prominence603は、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から得られたホールの画像と設計基準データの1種である正常ホールの輪郭線との差分、ホール壁の高さ、及び異常部分のコントラスト分布により判断される。   Side Wall Crack 602 and Blunt Prominence 603 (smooth swell with spread) are obtained from the third image obtained from the first oblique bright field detection system 1100 and from the second oblique bright field detection system 1200. Obtained fourth image can be obtained. This will be specifically described. Side Wall Crack 602 and Blunt Prominence 603 are obtained from the third image obtained from the first oblique bright field detection system 1100 and the fourth image obtained from the second oblique bright field detection system 1200. This is determined by the difference between the image of the hole and the outline of the normal hole which is one type of design reference data, the height of the hole wall, and the contrast distribution of the abnormal part.

まず、Side Wall Crack602を判断する場合について説明する。図7画像701は第1の斜方明視野検出系1100から得られた画像であり、画像702は第2の斜方明視野検出系1200から得られた画像である。ここで、以下の場合はSide Wall Crack602と判断する。(1)得られたホールの輪郭線が正常ホールの輪郭線からはずれる。(2)画像701において、正常ホールの輪郭線より外側に暗部がある。(3)暗部の大きさはある基準よりも大きい。(4)画像702において、正常ホールの輪郭線より外側に明部がある。(5)ホール壁の高さはある基準より低い。   First, the case where Side Wall Crack 602 is determined will be described. An image 701 in FIG. 7 is an image obtained from the first oblique bright field detection system 1100, and an image 702 is an image obtained from the second oblique bright field detection system 1200. Here, it is determined that Side Wall Crack 602 in the following case. (1) The outline of the obtained hole deviates from the outline of the normal hole. (2) In the image 701, there is a dark part outside the outline of the normal hole. (3) The size of the dark part is larger than a certain reference. (4) In the image 702, there is a bright part outside the outline of the normal hole. (5) The height of the hole wall is lower than a certain standard.

一方、以下の場合には、Blunt Prominence603であると判断される。(1)得られたホールの輪郭線が正常ホールの輪郭線からはずれる。(2)画像703において、正常ホールの輪郭線より外側明部がある。(3)暗部の大きさはある基準よりも小さい。(4)画像704において、正常ホールの輪郭線より外側に明部がある。(5)ホール壁の高さはある基準より高い。   On the other hand, in the following cases, it is determined that it is Blunt Prominence 603. (1) The outline of the obtained hole deviates from the outline of the normal hole. (2) In the image 703, there is a bright portion outside the outline of the normal hole. (3) The size of the dark part is smaller than a certain standard. (4) In the image 704, there is a bright part outside the outline of the normal hole. (5) The height of the hole wall is higher than a certain standard.

Geometry(φx)604,Geometry(φy)605(形成されたホールの壁の形状)、Alignment606(ある方向からの角度)、Offset(Δx)607(x方向でのずれ),Offset(Δy)608(y方向でのずれ),Pitch4609は、図6画像610に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つ(望ましくは2つ)から得ることができる。   Geometry (φx) 604, Geometry (φy) 605 (shape of the wall of the formed hole), Alignment 606 (angle from a certain direction), Offset (Δx) 607 (deviation in the x direction), Offset (Δy) 608 ( Pitch 4609 is a first image obtained by the first one-dimensional line sensor 106 (SCU) and a second one-dimensional line sensor 107 (SCD) as shown in an image 610 in FIG. It can be obtained from at least one (preferably two) of the obtained second images.

次に第3工程でのバンプ評価について説明する。図8、及び図9は第3工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。   Next, the bump evaluation in the third step will be described. FIG. 8 and FIG. 9 are diagrams for explaining the evaluation items in the third step and what information the evaluation items can be obtained from.

まず、Paste Residue801(ペースト材の塗布に起因する残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。   First, Paste Residue 801 (residue resulting from application of paste material) is obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD). It is determined from a dark image due to scattering of illumination light in the obtained second image.

Miss Filling802(既定のペースト充填量を満たしていない状態)、Over Filling803(ペースト材の過充填)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。   Miss Filling 802 (a state in which a predetermined paste filling amount is not satisfied) and Over Filling 803 (overfilling of paste material) are a first image and a second one obtained by the first one-dimensional line sensor 106 (SCU). A second image obtained by the dimensional line sensor 107 (SCD), a third image obtained from the first oblique bright field detection system 1100, and obtained from the second oblique bright field detection system 1200. Judgment is made from the fourth image.

より具体的に説明する。図9の領域901は上方明視野検出系1000の検出結果を使用して、Miss Filling802・Over Filling803間の判別を説明する図である。まず、Miss Filling802の部分は暗く表示される(符号902、903)、Over Filling803の部分は明るく表示される(符号904、905)。さらに、Focus Position Upper(焦点位置が上方)で得られた画像と、Focus Position Lower(焦点位置が下方)で得られた画像では、鮮明となる輪郭線が異なる。これは、例えば、Focus Position Upper(焦点位置が上方)で得られた画像ではOver Filling803の頂点付近の像の輪郭が鮮明に得られるし、Focus Position Lower(焦点位置が下方)で得られた画像ではOver Filling803の底面付近の像の輪郭が鮮明に得られることを示している。また、Miss Filling802については、例えば、Focus Position Lower(焦点位置が下方)で得られた画像での方がより像の輪郭が鮮明に得られることを示している。このように、コントラスト、及び輪郭の少なくとも1つ(望ましくは両方)に着目することで、Miss Filling802・Over Filling803間の判別が可能となる。   This will be described more specifically. A region 901 in FIG. 9 is a diagram for explaining discrimination between Miss Filling 802 and Over Filling 803 using the detection result of the upper bright field detection system 1000. First, the Miss Filling 802 portion is displayed dark (reference numerals 902 and 903), and the Over Filling 803 portion is displayed brightly (reference numerals 904 and 905). Furthermore, a sharp outline is different between an image obtained at Focus Position Upper (focus position is upward) and an image obtained at Focus Position Lower (focal position is downward). This is because, for example, in an image obtained with Focus Position Upper (focus position is upward), the outline of the image near the top of Over Filling 803 is clearly obtained, and an image obtained with Focus Position Lower (focal position is downward). The figure shows that the outline of the image near the bottom surface of Over Filling 803 can be clearly obtained. For Miss Filling 802, for example, an image obtained with Focus Position Lower (focal position is lower) indicates that the contour of the image can be obtained more clearly. Thus, by focusing on at least one (preferably both) of contrast and contour, it is possible to distinguish between Miss Filling 802 and Over Filling 803.

第1の斜方明視野検出系1100、第2の斜方明視野検出系1200でも、Miss Filling802・Over Filling803間の判別は可能である。図9の領域906は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200を使用して、Miss Filling802・Over Filling803間の判別を説明する図である。ここで、以下の場合はOver Filling803と判断する。(1)画像907において、正常ホールの輪郭線より外側に明部がある。(2)画像908において、正常ホールの輪郭線より内側に明部がある。一方、以下の場合には、Miss Filling802であると判断される。(1)画像909において、正常ホールの輪郭線より内側に暗部がある。(2)画像910において、正常ホールの輪郭線より内側に暗部がある。なお、上述したMiss Filling802・Over Filling803間の判別は、上方明視野検出系1000の検出結果を使用した判別、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の検出結果を使用した判別を組み合わせる方が判別の精度は高くなるので、組み合わせた方が良い。   The first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 can also distinguish between Miss Filling 802 and Over Filling 803. A region 906 in FIG. 9 is a diagram for explaining the discrimination between Miss Filling 802 and Over Filling 803 using the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. Here, it is determined as Over Filling 803 in the following cases. (1) In the image 907, there is a bright part outside the outline of the normal hole. (2) In the image 908, there is a bright part inside the outline of the normal hole. On the other hand, in the following case, it is determined to be Miss Filling 802. (1) In the image 909, there is a dark part inside the outline of the normal hole. (2) In the image 910, there is a dark part inside the outline of the normal hole. The above-described discrimination between Miss Filling 802 and Over Filling 803 is performed using the detection result of the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field detection system 1200. Since the accuracy of discrimination is higher when the discrimination using the detection result is combined, it is better to combine them.

次に第4工程でのバンプ評価について説明する。図10、及び図11は第4工程での評価項目とその評価項目がどのような情報から得られるかを説明する図である。   Next, bump evaluation in the fourth step will be described. 10 and 11 are diagrams for explaining the evaluation items in the fourth step and what kind of information the evaluation items can be obtained from.

Particle1001及びDFR Residue1002(壁の除去に起因する残留物)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像中の照明光の散乱による暗像から判断される。
また、分類は特徴量を使用することで可能である。
Particle 1001 and DFR Residue 1002 (residue resulting from wall removal) are obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD). Further, it is determined from a dark image due to scattering of illumination light in the second image.
Classification is possible by using feature quantities.

Dent1003(へこみ),Projection1004(突起)は、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像間、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像から判断される。   Dent 1003 (dent) and Projection 1004 (protrusion) are a first image obtained by the first one-dimensional line sensor 106 (SCU) and a second image obtained by the second one-dimensional line sensor 107 (SCD). In the meantime, it is determined from the third image obtained from the first oblique bright field detection system 1100 and the fourth image obtained from the second oblique bright field detection system 1200.

より、具体的に説明する。図11の領域1005は、上方明視野検出系1000の検出結果を使用して、Dent1003(へこみ),Projection1004(突起)間の判別を説明する図である。まず、Dent1003(へこみ)の部分は暗く表示される(1006、1007)、Projection1004の部分は明るく表示される(符号1008、1009)。さらに、Focus Position Upper(焦点位置が上方)で得られた画像と、Focus Position Lower(焦点位置が下方)で得られた画像とでは、鮮明になる輪郭が異なる。さらに、Projection1004においては、焦点位置の場所によって、画像に現れる明部の大きさが異なる。より具体的には、Focus Position Upper(焦点位置が上方)で得られた画像の明部よりもFocus Position Lower(焦点位置が下方)で得られた画像の明部の方が大きい画像となる。このように、上方明視野検出系1000の検出結果、特にコントラスト、輪郭に着目することで、Dent1003(へこみ),Projection1004(突起)間の判別が可能となる。   More specific description will be given. A region 1005 in FIG. 11 is a diagram for explaining discrimination between Dent 1003 (dent) and Projection 1004 (projection) using the detection result of the upper bright field detection system 1000. First, the portion of Dent 1003 (dent) is displayed dark (1006, 1007), and the portion of Projection 1004 is displayed brightly (reference numerals 1008, 1009). Further, an image obtained at Focus Position Upper (focus position is upward) and an image obtained at Focus Position Lower (focus position is downward) have different outlines. Furthermore, in Projection 1004, the size of the bright portion that appears in the image differs depending on the location of the focal position. More specifically, the bright part of the image obtained at Focus Position Lower (focal position is lower) is larger than the bright part of the image obtained at Focus Position Upper (focal position is upward). In this way, it is possible to distinguish between Dent 1003 (dent) and Projection 1004 (projection) by paying attention to the detection result of the upper bright field detection system 1000, particularly the contrast and contour.

第1の斜方明視野検出系1100、第2の斜方明視野検出系1200でも、Dent1003(へこみ),Projection1004(突起)間の判別が可能である。図11の領域1010は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の少なくとも1つを使用して、Dent1003(へこみ),Projection1004(突起)間の判別を説明する図である。画像1011、1012は、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200で得られた画像の少なくとも1つである。Dent1003(へこみ)であれば、基準とする輪郭線1110の内側に特異なコントラスト1120が表示される。また、Projection1004(突起)であれば、基準とする輪郭線1110の外側に特異なコントラスト1130が表示される。なお、上述したDent1003(へこみ),Projection1004(突起)間の判別は、上方明視野検出系1000の検出結果を使用した判別、第1の斜方明視野検出系1100、第2の斜方明視野検出系1200の検出結果を使用した判別を組み合わせる方が判別の精度は高くなるので、組み合わせた方が良い。   The first oblique bright field detection system 1100 and the second oblique bright field detection system 1200 can also discriminate between Dent 1003 (dent) and Projection 1004 (projection). An area 1010 in FIG. 11 is used to discriminate between Dent 1003 (dent) and Projection 1004 (projection) by using at least one of the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. It is a figure explaining. The images 1011 and 1012 are at least one of images obtained by the first oblique bright field detection system 1100 and the second oblique bright field detection system 1200. If it is Dent 1003 (dent), a unique contrast 1120 is displayed inside the reference outline 1110. In the case of Projection 1004 (projection), a unique contrast 1130 is displayed outside the reference outline 1110. Note that the above-described discrimination between Dent 1003 (dent) and Projection 1004 (projection) is performed using the detection result of the upper bright field detection system 1000, the first oblique bright field detection system 1100, and the second oblique bright field. Since the accuracy of discrimination is higher when the discrimination using the detection result of the detection system 1200 is combined, it is better to combine the discrimination.

SOD Height1013(銅の台からペースト頂点までの高さ)、Cu Die Height1014(銅の台の高さ)は、図10領域1015に示す通り、第1の斜方明視野検出系1100から得られた第3の画像、及び第2の斜方明視野検出系1200から得られた第4の画像の少なくとも1つから得ることができる。なお、図10領域1015のSOD Height1013、Cu Die Height1014は、第1の斜角、第2の斜角が反映されている。そこで、本実施例では、図11領域1015のSOD Height1013、Cu Die Height1014に、第1の斜角、第2の斜角を考慮して、真のSOD Height1013、Cu Die Height1014を得る。さらに、図10領域1021に示すように、形成されたバンプの突起1022の良否は、基準とすべき正常バンプの輪郭線1023と比較することで行うことができる。   SOD Height 1013 (the height from the copper platform to the paste apex) and Cu Die Height 1014 (the height of the copper platform) were obtained from the first oblique bright field detection system 1100 as shown in region 1015 of FIG. It can be obtained from at least one of the third image and the fourth image obtained from the second oblique bright field detection system 1200. Note that the SOD Height 1013 and the Cu Die Height 1014 in the area 1015 of FIG. 10 reflect the first and second oblique angles. Therefore, in the present embodiment, the true SOD Height 1013 and Cu Die Height 1014 are obtained in consideration of the first and second oblique angles in the SOD Height 1013 and Cu Die Height 1014 in the region 1015 of FIG. Furthermore, as shown in FIG. 10 region 1021, the quality of the formed bump protrusion 1022 can be determined by comparing with the normal bump outline 1023 to be used as a reference.

Geometry(φx)1016,Geometry(φy)1017(形成されたホールの壁の形状)、Offset(Δx)1019(x方向でのずれ),Offset(Δy)1020(y方向でのずれ),図10画像1030に示すように第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像の少なくとも1つから得ることができる。   Geometry (φx) 1016, Geometry (φy) 1017 (shape of the wall of the formed hole), Offset (Δx) 1019 (deviation in the x direction), Offset (Δy) 1020 (deviation in the y direction), FIG. As shown in an image 1030, from at least one of the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). Can be obtained.

次に、第2工程、第3工程での側壁計測、及びペースト材の充填不良計測について説明する。図12は側壁計測、及びペースト材の充填不良計測を説明する図である。前述したように2次元センサ118、123を使用した撮像に当たっては、センサの全画素を使用するのではなく、一部の任意の画素の集合を選択的に使用することが可能である。この任意の画素の集合は、有効領域と表現することができる。側壁計測、及びペースト材の充填不良計測について、この有効領域1207、1208、及びそれらの焦点深度は、設計基準データから読みだした銅の台1201の頂上から壁1202の頂上までの高さ1203、ホールの幅1204、高さ1203とホールの幅1204とのアスペクト比を考慮して決定される。第1の斜角、第2の斜角、についても同様である。   Next, side wall measurement and paste material filling failure measurement in the second step and the third step will be described. FIG. 12 is a view for explaining side wall measurement and paste material filling failure measurement. As described above, when imaging using the two-dimensional sensors 118 and 123, it is possible to selectively use a set of some arbitrary pixels instead of using all the pixels of the sensor. This arbitrary set of pixels can be expressed as an effective area. For the side wall measurement and paste material filling failure measurement, the effective areas 1207 and 1208 and their depth of focus are the height 1203 from the top of the copper platform 1201 to the top of the wall 1202 read from the design reference data, It is determined in consideration of the aspect ratio between the hole width 1204 and height 1203 and the hole width 1204. The same applies to the first oblique angle and the second oblique angle.

壁の傾きは、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像によって得られたホールの形状(ホールの楕円率でも良い)と第1の斜方明視野検出系1100の有効領域から得られた第3の画像との差分により得ることができる。また、第1の1次元ラインセンサ106(SCU)で得られた第1の画像、第2の1次元ラインセンサ107(SCD)で得られた第2の画像によって得られたホールの形状(ホールの楕円率でも良い)と第2の斜方明視野検出系1200の有効領域から得られた第4の画像との差分により得ることもできる。   The inclination of the wall is determined by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the hole obtained by the second image obtained by the second one-dimensional line sensor 107 (SCD). It can be obtained by the difference between the shape (may be the ellipticity of the hole) and the third image obtained from the effective area of the first oblique bright field detection system 1100. Further, the shape of the hole (hole) obtained by the first image obtained by the first one-dimensional line sensor 106 (SCU) and the second image obtained by the second one-dimensional line sensor 107 (SCD). And the fourth image obtained from the effective area of the second oblique bright field detection system 1200 can also be obtained.

さらに、ペーストの充填不良は、図12の領域1205、1206のように、特に第1の斜方明視野検出系1100の有効領域から得られた第3の画像、及び第2の斜方明視野検出系1200の有効領域から得られた第4の画像に反映される。つまり、第1の斜方明視野検出系1100の有効領域から得られた第3の画像、及び第2の斜方明視野検出系1200の有効領域から得られた第4の画像からペーストの充填不良を推定することが可能となる。   Further, the poor filling of the paste is caused by the third image obtained from the effective area of the first oblique bright field detection system 1100 and the second oblique bright field, such as areas 1205 and 1206 in FIG. This is reflected in the fourth image obtained from the effective area of the detection system 1200. That is, the filling of the paste from the third image obtained from the effective area of the first oblique bright field detection system 1100 and the fourth image obtained from the effective area of the second oblique bright field detection system 1200. Defects can be estimated.

次にホール上部、下部での欠陥検出について説明する。本実施例では、焦点位置の異なるホール上部、下部での欠陥をそれぞれ検出できるよう、第1の1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)を、異なる焦点位置に配置する。例えば、本実施例では、第1の1次元ラインセンサ106(SCU)をホール上部の欠陥検出用とし、第2の1次元ラインセンサ107(SCD)をホール下部での欠陥検出用とする。さらに本実施例ではホール底まで照明光を到達させるために、例えば、ランプ(バルブ)による明視野落射照明/暗視野照明方式を採用することもできる(この際、明視野、暗視野の照明光量比は100:0〜0:100まで変更可能とする。)。   Next, defect detection at the upper and lower parts of the hole will be described. In the present embodiment, the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD) are connected to different focal positions so that defects at the upper and lower portions of the holes having different focal positions can be detected. To place. For example, in the present embodiment, the first one-dimensional line sensor 106 (SCU) is used for detecting defects at the upper part of the hole, and the second one-dimensional line sensor 107 (SCD) is used for detecting defects at the lower part of the hole. Furthermore, in this embodiment, in order to make the illumination light reach the bottom of the hall, for example, a bright field epi-illumination / dark field illumination method using a lamp (bulb) can be adopted (in this case, the illumination light quantity of bright field and dark field) The ratio can be changed from 100: 0 to 0: 100).

次に、画像の読み出しについて説明する。図13は本実施例での画像の読み出しを説明する図である。2次元センサ118、及び2次元センサ123の露光を制御するトリガ信号1301、1302は、第1の1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)の信号を読み出すためのトリガ信号1303、1304と同期している。ここで、トリガ信号1301は、1stダイ1309(又はショット)におけるアライメントマークからΔxforgだけ離れたt1stバンプに対応したトリガ信号である。また、トリガ信号1302は、1stバンプから距離Pxだけ離れた2ndバンプに対応したトリガ信号である。光学的シャッタ117、122の開く時刻は、トリガ信号1303に同期している。また、光学的シャッタ117、122の閉じる時刻は反射率が低い計測対象にも対応できるよう任意の時刻に設定可能である(領域1305)。これにより、光学的シャッタ117、122の開いている時間を制御できる訳であるが、これは、2次元センサ118、及び2次元センサ123の電荷蓄積時間が可変となることを意味している。さらに、前述したように、2次元センサ118、及び2次元センサ123は、時間遅延積分型の場合もある。その場合、2次元センサ118、及び2次元センサ123は、ステージ1300の走査に同期して電荷をシフトする。この場合のシフトタイミングは、1次元ラインセンサ106(SCU)、第2の1次元ラインセンサ107(SCD)を基準にして、第1の斜角、第2の斜角に応じて変更される。なお、加算回数は2次元センサ118、及び2次元センサ123に基づいて決定される(図13領域1306)。また、加算走査時の読み出しデータを無効とすることも可能である(図13領域1307)。また、2次元センサ118、及び2次元センサ123の露光終了後は、シフトトリガを変更しデータの読み出しを行う(領域1308)。   Next, image reading will be described. FIG. 13 is a diagram for explaining reading of an image in this embodiment. The trigger signals 1301 and 1302 for controlling the exposure of the two-dimensional sensor 118 and the two-dimensional sensor 123 are for reading the signals of the first one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD). The trigger signals 1303 and 1304 are synchronized with each other. Here, the trigger signal 1301 is a trigger signal corresponding to a t1st bump separated from the alignment mark in the 1st die 1309 (or shot) by Δxforg. The trigger signal 1302 is a trigger signal corresponding to a 2nd bump that is separated from the 1st bump by a distance Px. The opening times of the optical shutters 117 and 122 are synchronized with the trigger signal 1303. Further, the closing time of the optical shutters 117 and 122 can be set to an arbitrary time so as to cope with a measurement object having a low reflectance (region 1305). As a result, the time during which the optical shutters 117 and 122 are open can be controlled. This means that the charge accumulation times of the two-dimensional sensor 118 and the two-dimensional sensor 123 are variable. Furthermore, as described above, the two-dimensional sensor 118 and the two-dimensional sensor 123 may be of a time delay integration type. In that case, the two-dimensional sensor 118 and the two-dimensional sensor 123 shift the charge in synchronization with the scanning of the stage 1300. The shift timing in this case is changed according to the first oblique angle and the second oblique angle with reference to the one-dimensional line sensor 106 (SCU) and the second one-dimensional line sensor 107 (SCD). The number of additions is determined based on the two-dimensional sensor 118 and the two-dimensional sensor 123 (region 1306 in FIG. 13). It is also possible to invalidate the read data at the time of addition scanning (FIG. 13 area 1307). After the exposure of the two-dimensional sensor 118 and the two-dimensional sensor 123 is completed, the shift trigger is changed and data is read (area 1308).

次に、1次元ラインセンサ106、1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係について説明する。図14は、1次元ラインセンサ106、第2の1次元ラインセンサ107、2次元センサ118、及び2次元センサ123の視野の位置関係を説明する図である。本実施例では、1次元ラインセンサ106の視野1401、第2の1次元ラインセンサ107の視野1402、2次元センサ118の視野1403(前述した有効領域と表現することもできる)、及び2次元センサ123の視野1404はそれぞれ異なる位置にある。なお、図14でのX軸、Y軸はそれぞれステージ1300の走査方向である。つまり、ステージ1300は基板を図14のX軸、及びY軸方向に移動させる。本実施例では、ステージ1300は基板を矢印1405の方向に移動させる。つまり、バンプ1406は時間的に2次元センサ118、1次元ラインセンサ106、1次元ラインセンサ107、2次元センサ123の順に撮像される。なお、1次元ラインセンサ106、1次元ラインセンサ107についてはX軸上では同一座標上にあるので、時間的には同時にバンプを撮像する。つまり、本実施例では、バンプ1406について、時間的に異なる複数の像が得られることになる。つまり、同じバンプについての像がメモリ内の異なるアドレスに保存されることになる。ここで、各視野間の距離が既知であれば、各視野間の距離と走査速度との関係から、得られる複数の画像がどれだけの時間差を持って各センサによって撮像されるか知ることができる。よって、本実施例では、同じバンプについて撮像され、かつ時間差を有する複数の画像を、この時間差を考慮してメモリから読み出す。   Next, the positional relationship of the visual fields of the one-dimensional line sensor 106, the one-dimensional line sensor 107, the two-dimensional sensor 118, and the two-dimensional sensor 123 will be described. FIG. 14 is a diagram for explaining the positional relationship of the visual fields of the one-dimensional line sensor 106, the second one-dimensional line sensor 107, the two-dimensional sensor 118, and the two-dimensional sensor 123. In this embodiment, the visual field 1401 of the one-dimensional line sensor 106, the visual field 1402 of the second one-dimensional line sensor 107, the visual field 1403 of the two-dimensional sensor 118 (which can also be expressed as the above-described effective region), and the two-dimensional sensor 123 fields of view 1404 are in different positions. Note that the X axis and the Y axis in FIG. 14 are the scanning directions of the stage 1300, respectively. That is, the stage 1300 moves the substrate in the X-axis and Y-axis directions in FIG. In this embodiment, the stage 1300 moves the substrate in the direction of the arrow 1405. That is, the bump 1406 is temporally imaged in the order of the two-dimensional sensor 118, the one-dimensional line sensor 106, the one-dimensional line sensor 107, and the two-dimensional sensor 123. Since the one-dimensional line sensor 106 and the one-dimensional line sensor 107 are on the same coordinate on the X axis, the bumps are imaged simultaneously in time. In other words, in this embodiment, a plurality of images different in time are obtained for the bump 1406. That is, images for the same bump are stored at different addresses in the memory. Here, if the distance between each field of view is known, it is possible to know how much time the plurality of images obtained are captured by each sensor from the relationship between the distance between each field of view and the scanning speed. it can. Therefore, in this embodiment, a plurality of images that are imaged with respect to the same bump and have a time difference are read from the memory in consideration of this time difference.

より具体的に説明する。例えば、1次元ラインセンサ106、及び1次元ラインセンサ107のうち少なくとも1つは、2次元センサ118が撮像する時間に対して時間1407だけ遅れて撮像する。また、2次元センサ123は、2次元センサ118が撮像する時間に対して時間1408だけ遅れて撮像する。よって、本実施例では、この時間差1407、1408を考慮してメモリから撮像した画像を読み出す。   This will be described more specifically. For example, at least one of the one-dimensional line sensor 106 and the one-dimensional line sensor 107 captures an image delayed by a time 1407 with respect to the time captured by the two-dimensional sensor 118. The two-dimensional sensor 123 captures an image with a delay of time 1408 with respect to the time when the two-dimensional sensor 118 captures an image. Therefore, in this embodiment, the captured image is read from the memory in consideration of the time differences 1407 and 1408.

さらに、Y軸方向について考えると、各視野は、距離的に位置ずれ1409、1410、1411を有している場合も考えられるが、各視野の大きさを予想される位置ずれよりも大きく、望ましくは十分大きくしておけば、この位置ずれ1409、1410、1411の影響は実質的に無視できることができる。   Further, considering the Y-axis direction, each visual field may have a positional shift 1409, 1410, or 1411 in terms of distance, but the size of each visual field is larger than the expected positional shift, and is desirable. Is sufficiently large, the influence of the positional deviations 1409, 1410, and 1411 can be substantially ignored.

次に実施例2について説明する。実施例2では主に実施例1とは異なる部分について説明する。本実施例2は、例えば、LEDによる多点発光光源による平行照明光を用いる実施例である。   Next, Example 2 will be described. In the second embodiment, portions different from the first embodiment will be mainly described. In the second embodiment, for example, parallel illumination light from a multipoint light source using LEDs is used.

図15を用いて本実施例を説明する。本実施例では、第2の斜方明視野検出系1200の対物レンズ120の周囲に第1の多点発光光源1506、第1の多点発光光源1506よりも外周側に配置された第2の多点発光光源1507を有する。ここで、第1の多点発光光源1506はLED1506を複数有する。第2の多点発光光源1507はLED1505を複数有する。そして、バンプ1501や銅の台1502を撮像する場合は、第1の多点発光光源1506、及び第2の多点発光光源1507が発光する。この場合、点線1507の部分の端部がより強調されて撮像されることになる。これは、上述したバンプの形を得る場合等に有効である。   The present embodiment will be described with reference to FIG. In the present embodiment, the first multi-point light source 1506 and the second multi-point light source 1506 are arranged on the outer peripheral side around the objective lens 120 of the second oblique bright field detection system 1200. A multi-point light source 1507 is included. Here, the first multipoint light source 1506 includes a plurality of LEDs 1506. The second multipoint light source 1507 has a plurality of LEDs 1505. When the bump 1501 or the copper base 1502 is imaged, the first multi-point light source 1506 and the second multi-point light source 1507 emit light. In this case, the end of the dotted line 1507 is more emphasized and imaged. This is effective for obtaining the above-described bump shape.

なお、上述した多点発光光源は、基板の法線方向に配置された上方明視野検出系1000、基板に対して第1の斜角で配置された第1の斜方明視野検出系1100に採用しても良い。また、第1の多点発光光源1506、及び第2の多点発光光源1507の少なくとも1つの選択的に発光させても良い。また、点線1503のように、多点発光光源の1部を発光させるようにしても良い。このようにすることで、任意の場所の端部を強調して撮像することが可能となる。   Note that the above-described multi-point light source includes the upper bright field detection system 1000 arranged in the normal direction of the substrate and the first oblique bright field detection system 1100 arranged at a first oblique angle with respect to the substrate. It may be adopted. Alternatively, at least one of the first multi-point light source 1506 and the second multi-point light source 1507 may be selectively made to emit light. Further, as indicated by a dotted line 1503, a part of the multipoint light source may be caused to emit light. By doing in this way, it becomes possible to emphasize and image the edge of an arbitrary place.

本実施例によれば、従来よりも得られる情報量が多くなるので、より精度の高いバンプ評価を行うことが可能となる。なお、本発明は実施例に限定されない。例えば、上述した3つの検出光学系のうちいずれか2つを採用することも可能であるし、検出光学系をさらに増やしても良い。また、本発明はバンプ以外の評価に利用しても良い。   According to the present embodiment, since the amount of information obtained is greater than in the prior art, more accurate bump evaluation can be performed. In addition, this invention is not limited to an Example. For example, any two of the three detection optical systems described above can be employed, or the number of detection optical systems may be further increased. Further, the present invention may be used for evaluations other than bumps.

1000 上方明視野検出系
1100 第1の斜方明視野検出系
1200 第2の斜方明視野検出系
1300 ステージ
1000 Upper bright field detection system 1100 First oblique bright field detection system 1200 Second oblique bright field detection system 1300 Stage

Claims (11)

基板に形成された形状を計測するための装置において、
前記基板の法線方向に配置された上方明視野検出光学系と、
前記基板に対して第1の斜角で配置された第1の斜方明視野検出光学系と、
前記基板に対して第2の斜角で配置された第2の斜方明視野検出光学系と、を有することを特徴とする基板に形成された形状を計測するための装置。
In an apparatus for measuring the shape formed on a substrate,
An upper bright-field detection optical system disposed in the normal direction of the substrate;
A first oblique bright field detection optical system disposed at a first oblique angle with respect to the substrate;
An apparatus for measuring a shape formed on a substrate, comprising: a second oblique bright field detection optical system disposed at a second oblique angle with respect to the substrate.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系の少なくとも1つは、前記上方明視野検出光学系の撮像をきっかけとして、撮像を開始することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
At least one of the first oblique bright field detection optical system and the second oblique bright field detection optical system starts imaging based on the imaging of the upper bright field detection optical system. A device for measuring the shape formed on the substrate.
請求項2に記載の基板に形成された形状を計測するための装置において、
前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系の少なくとも1つは、シャッタを有し、前記シャッタは前記上方明視野検出光学系の撮像をきっかけとして、開閉することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 2,
At least one of the first oblique bright field detection optical system and the second oblique bright field detection optical system has a shutter, and the shutter is triggered by imaging of the upper bright field detection optical system. An apparatus for measuring a shape formed on a substrate, characterized by opening and closing.
請求項3に記載の基板に形成された形状を計測するための装置において、
前記シャッタは、透明強誘電体セラミックス系の材料を有することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 3,
The shutter is made of a transparent ferroelectric ceramic material, and is an apparatus for measuring a shape formed on a substrate.
請求項4に記載の基板に形成された形状を計測するための装置において、
前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系の少なくとも1つは、電荷蓄積型のセンサを有し、
前記センサの電荷蓄積時間は前記シャッタの開閉時間に対応していることを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 4,
At least one of the first oblique bright field detection optical system and the second oblique bright field detection optical system includes a charge storage type sensor,
An apparatus for measuring a shape formed on a substrate, wherein a charge accumulation time of the sensor corresponds to an opening / closing time of the shutter.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記第1の斜方明視野検出光学系は、前記第1の斜角を、設計基準情報に応じて変更することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The apparatus for measuring a shape formed on a substrate, wherein the first oblique bright field detection optical system changes the first oblique angle according to design standard information.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記第2の斜方明視野検出光学系は、前記第2の斜角を、設計基準情報に応じて変更することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The apparatus for measuring a shape formed on a substrate, wherein the second oblique bright field detection optical system changes the second oblique angle according to design standard information.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記上方明視野検出光学系は、焦点位置の異なる2つのラインセンサを有することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The upper bright field detection optical system includes two line sensors having different focal positions, and an apparatus for measuring a shape formed on a substrate.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記第1の斜方明視野検出光学系は、複数の画素を有する2次元センサを有し、設計基準情報に応じて、前記複数の画素の中から撮像に使用する画素を選択することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The first oblique bright field detection optical system includes a two-dimensional sensor having a plurality of pixels, and selects a pixel to be used for imaging from the plurality of pixels according to design standard information. A device for measuring the shape formed on the substrate.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記第2の斜方明視野検出光学系は、複数の画素を有する2次元センサを有し、設計基準情報に応じて、前記複数の画素の中から撮像に使用する画素を選択することを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The second oblique bright field detection optical system includes a two-dimensional sensor having a plurality of pixels, and selects a pixel to be used for imaging from the plurality of pixels according to design standard information. A device for measuring the shape formed on the substrate.
請求項1に記載の基板に形成された形状を計測するための装置において、
前記上方明視野検出光学系、前記第1の斜方明視野検出光学系、及び前記第2の斜方明視野検出光学系は、前記基板の走査方向に沿って配置されていることを特徴とする基板に形成された形状を計測するための装置。
In the apparatus for measuring the shape formed on the substrate according to claim 1,
The upper bright field detection optical system, the first oblique bright field detection optical system, and the second oblique bright field detection optical system are arranged along a scanning direction of the substrate. A device for measuring the shape formed on the substrate.
JP2011213678A 2011-09-29 2011-09-29 Device for measuring shape formed on substrate Pending JP2015025656A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011213678A JP2015025656A (en) 2011-09-29 2011-09-29 Device for measuring shape formed on substrate
PCT/JP2012/070949 WO2013046998A1 (en) 2011-09-29 2012-08-20 Device for measuring shape formed on substrate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011213678A JP2015025656A (en) 2011-09-29 2011-09-29 Device for measuring shape formed on substrate

Publications (1)

Publication Number Publication Date
JP2015025656A true JP2015025656A (en) 2015-02-05

Family

ID=47995049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011213678A Pending JP2015025656A (en) 2011-09-29 2011-09-29 Device for measuring shape formed on substrate

Country Status (2)

Country Link
JP (1) JP2015025656A (en)
WO (1) WO2013046998A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122033A1 (en) * 2018-12-10 2020-06-18 株式会社新川 Mounting device
CN111521613A (en) * 2019-02-01 2020-08-11 由田新技股份有限公司 An automatic optical inspection system and method for measuring hole-like structures

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6883969B2 (en) * 2016-10-07 2021-06-09 トピー工業株式会社 Defect detection system for rolled materials
CN119620423B (en) * 2024-12-09 2025-12-30 无锡华兴光电研究有限公司 An optical imaging alignment system for precision flip-chip bonding

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636004A (en) * 1979-09-03 1981-04-09 Hitachi Ltd Detecting method of configuration and apparatus thereof
JP3151891B2 (en) * 1991-12-20 2001-04-03 松下電器産業株式会社 Observation device for solder appearance inspection
JPH07307599A (en) * 1994-05-10 1995-11-21 Shigeki Kobayashi Inspection device and product manufacture
JP3494762B2 (en) * 1995-07-19 2004-02-09 富士通株式会社 Surface defect inspection equipment
JP2000337823A (en) * 1999-05-27 2000-12-08 Mitsubishi Heavy Ind Ltd Surface inspection device and surface inspection method
JP2001082931A (en) * 1999-09-09 2001-03-30 Toshiba Corp Hole depth measuring method and hole depth measuring device
JP3945638B2 (en) * 2002-04-19 2007-07-18 富士通株式会社 Inspection method and inspection apparatus
JP4996856B2 (en) * 2006-01-23 2012-08-08 株式会社日立ハイテクノロジーズ Defect inspection apparatus and method
JP2008076151A (en) * 2006-09-20 2008-04-03 I-Pulse Co Ltd Inspection system and inspection method
JP2008085252A (en) * 2006-09-29 2008-04-10 Renesas Technology Corp Manufacturing method of semiconductor integrated circuit device
JP2009139285A (en) * 2007-12-07 2009-06-25 Univ Nihon Solder ball inspection device, inspection method thereof, and shape inspection device
JP5212724B2 (en) * 2009-01-27 2013-06-19 国際技術開発株式会社 Height measuring device
JP5564276B2 (en) * 2010-01-28 2014-07-30 株式会社日立ハイテクノロジーズ Image generation device for pattern matching

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122033A1 (en) * 2018-12-10 2020-06-18 株式会社新川 Mounting device
TWI731492B (en) * 2018-12-10 2021-06-21 日商新川股份有限公司 Package device
US11910534B2 (en) 2018-12-10 2024-02-20 Shinkawa Ltd. Mounting apparatus
CN111521613A (en) * 2019-02-01 2020-08-11 由田新技股份有限公司 An automatic optical inspection system and method for measuring hole-like structures
JP2020126035A (en) * 2019-02-01 2020-08-20 由田新技股▲ふん▼有限公司 Automated optical inspection system for measuring via hole structure and method
JP7005553B2 (en) 2019-02-01 2022-02-10 由田新技股▲ふん▼有限公司 Automatic optical inspection system for measuring via hole structure and its method
CN111521613B (en) * 2019-02-01 2023-09-29 由田新技股份有限公司 Automatic optical detection system and method for measuring porous structure

Also Published As

Publication number Publication date
WO2013046998A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP3903889B2 (en) Defect inspection method and apparatus, and imaging method and apparatus
US10209501B2 (en) 3D microscope and methods of measuring patterned substrates
US7126699B1 (en) Systems and methods for multi-dimensional metrology and/or inspection of a specimen
US7127098B2 (en) Image detection method and its apparatus and defect detection method and its apparatus
CN105301865B (en) Automatic focusing system
TWI575625B (en) System and method for detecting wafer
JP6475176B2 (en) Defect observation device
JP5725501B2 (en) Inspection device
WO2015159641A1 (en) Defect observation method and device
TWI564556B (en) Scratch detection method and apparatus
JP2011211035A (en) Inspecting device, defect classifying method, and defect detecting method
KR20120092181A (en) Defect inspection method and device thereof
US9151719B2 (en) Inspection apparatus
JP2015025656A (en) Device for measuring shape formed on substrate
JP2008196974A (en) Projection height measuring apparatus and height measuring method
JP5114808B2 (en) Inspection apparatus and defect inspection method
TW202509873A (en) Inspection system for edge and bevel inspection of semiconductor structures
JP6684992B2 (en) Projection inspection device and bump inspection device
JP2009092485A (en) Print solder inspection device
JP4523310B2 (en) Foreign matter identification method and foreign matter identification device
JP4844694B2 (en) Inspection apparatus and defect classification method
JP2019219357A (en) Imaging apparatus, imaging method, and imaging program
JP2017106816A (en) Inspection device
JPH10256326A (en) Pattern inspection method and inspection device
KR100971173B1 (en) On-line electro-optical detection method and system for rapid detection of wafer defects