[go: up one dir, main page]

JP2025021370A - OPTICAL DEVICE, OPTICAL INSPECTION DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM - Google Patents

OPTICAL DEVICE, OPTICAL INSPECTION DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM Download PDF

Info

Publication number
JP2025021370A
JP2025021370A JP2023134750A JP2023134750A JP2025021370A JP 2025021370 A JP2025021370 A JP 2025021370A JP 2023134750 A JP2023134750 A JP 2023134750A JP 2023134750 A JP2023134750 A JP 2023134750A JP 2025021370 A JP2025021370 A JP 2025021370A
Authority
JP
Japan
Prior art keywords
light
optical
projection
image
focal plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023134750A
Other languages
Japanese (ja)
Inventor
博司 大野
Hiroshi Ono
英明 岡野
Hideaki Okano
宏弥 加納
Hiroya Kano
卓大 神川
Takahiro Kamikawa
健太 高梨
Kenta Takanashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to US18/588,811 priority Critical patent/US20250044235A1/en
Publication of JP2025021370A publication Critical patent/JP2025021370A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide an optical device which can instantly change the correlation between the direction and the color of a beam of light according to various different applications.SOLUTION: According to an embodiment, the optical device includes: an illumination optical element having a focus surface or a focus surface region including areas in the vicinity of the focus surface; and a projection unit having a light source. The projection unit can emit a light flux which includes light with at least two different wavelength spectrums. The projection unit forms a projection image for projecting the light with two different wavelength spectrums in different positions in the focus point surface region of the illumination optical element.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は,光学装置、光学検査装置、光学検査方法、及び、光学検査プログラムに関する。 Embodiments of the present invention relate to an optical device, an optical inspection device, an optical inspection method, and an optical inspection program.

様々な産業において物体の非接触での検査が重要となっている。従来方法では、回折格子や波長フィルターを用いて分光した光線の色(波長スペクトル)を光線方向と一対一に対応させ、色を特定することにより光線の方向を同定し、物体面あるいは物体内の情報を取得する手法がある。 Non-contact inspection of objects is becoming important in various industries. Conventional methods involve using a diffraction grating or wavelength filter to separate light rays, creating a one-to-one correspondence between the color (wavelength spectrum) and the direction of the light rays, and identifying the color to identify the direction of the light rays and obtain information about the surface or inside of the object.

米国特許第5,675,407号明細書U.S. Pat. No. 5,675,407

W. L. Hows, “Rainbow schlieren and its application,” Applied Optics, vol. 23, No. 14, 1984W. L. Hows, “Rainbow schlieren and its application,” Applied Optics, vol. 23, No. 14, 1984 H. Ohno, “One-shot three-dimensional measurement method with the color mapping of light direction,” OSA Continuum, Vol. 4, Issue 3, 2021H. Ohno, “One-shot three-dimensional measurement method with the color mapping of light direction,” OSA Continuum, Vol. 4, Issue 3, 2021

本発明が解決しようとする課題は、光線の方向(光束の方向)と波長スペクトルとを対応付けることが可能となる光学装置、光学検査装置、光学検査方法、及び、光学検査プログラムを提供することである。 The problem that the present invention aims to solve is to provide an optical device, an optical inspection device, an optical inspection method, and an optical inspection program that are capable of associating the direction of a light ray (direction of a light beam) with a wavelength spectrum.

実施形態によれば、光学装置は、焦点面又はその近傍を含む焦点面領域を有する照明光学素子と、光源を備える投映部とを備える。投映部は、光源から、少なくとも2つの異なる波長スペクトルの光を含む光束を発することができる。投映部は、照明光学素子の焦点面領域において、2つの異なる波長スペクトルの光を異なる位置に投映する投映像を形成する。 According to an embodiment, the optical device includes an illumination optical element having a focal surface region including a focal surface or its vicinity, and a projection unit including a light source. The projection unit can emit a light beam including light of at least two different wavelength spectra from the light source. The projection unit forms a projection image that projects the light of the two different wavelength spectra at different positions in the focal surface region of the illumination optical element.

第1実施形態に係る光学検査装置の光学装置を示す概略図。FIG. 2 is a schematic diagram showing an optical device of the optical inspection device according to the first embodiment. 図1に示す光学検査装置の光学装置の仮想投映像を投映部側から見た図。2 is a diagram showing a virtual projected image of the optical device of the optical inspection device shown in FIG. 1 as viewed from the projection unit side. 図1に示す光学検査装置の光学装置の仮想投映像の変形例を投映部側から見た図。10 is a diagram showing a modified example of a virtual projection image of the optical device of the optical inspection device shown in FIG. 1 as viewed from the projection unit side. 光学装置の図3とは異なる仮想投映像の変形例を投映部側から見た図。5 is a diagram showing a modified example of a virtual projection image of the optical device, different from that shown in FIG. 3, as viewed from the projection unit side. 光学装置の図3及び図4とは異なる仮想投映像の変形例を投映部側から見た図。5 is a diagram showing a modified example of a virtual projection image of the optical device, different from that shown in FIGS. 3 and 4, as viewed from the projection unit side. FIG. 第1実施形態に係る光学検査装置の光学装置の変形例を示す概略図。FIG. 13 is a schematic diagram showing a modified example of the optical device of the optical inspection device according to the first embodiment. 第2実施形態に係る光学検査装置を示す概略図。FIG. 11 is a schematic diagram showing an optical inspection device according to a second embodiment. 第2実施形態に係る光学検査装置の物体表面の光学検査処理のフローチャート。10 is a flowchart of an optical inspection process for an object surface by an optical inspection device according to a second embodiment. 第2実施形態の変形例に係る光学検査装置の光学装置の物体面から撮像側を示す概略図。FIG. 11 is a schematic diagram showing the imaging side from the object plane of the optical device of the optical inspection device according to the modified example of the second embodiment. 第3実施形態に係る光学検査装置の光学装置を示す概略図。FIG. 11 is a schematic diagram showing an optical device of an optical inspection device according to a third embodiment. 第3実施形態の第1変形例に係る光学装置の投映部から照明レンズに向かう投映面での投映像の概略図。13 is a schematic diagram of a projected image on a projection surface directed from a projection unit of an optical device according to a first modified example of the third embodiment to an illumination lens. 第3実施形態の第2変形例に係る光学装置の投映部から照明レンズに向かう投映面での投映像の概略図。13 is a schematic diagram of a projected image on a projection surface directed from a projection unit of an optical device according to a second modified example of the third embodiment to an illumination lens. 第4実施形態に係る光学検査装置の光学装置を示す概略図。FIG. 13 is a schematic diagram showing an optical device of an optical inspection device according to a fourth embodiment. 第4実施形態の第1変形例に係る光学検査装置の光学装置を示す概略図。FIG. 13 is a schematic diagram showing an optical device of an optical inspection device according to a first modified example of the fourth embodiment. 第5実施形態に係る光学検査装置の光学装置を示す概略的な斜視図。FIG. 13 is a schematic perspective view showing an optical device of an optical inspection device according to a fifth embodiment.

以下に,各実施の形態について図面を参照しつつ説明する。図面は模式的または概念的なものであり,各部分の厚みと幅との関係,部分間の大きさの比率などは,必ずしも現実のものと同一とは限らない。また,同じ部分を表す場合であっても,図面により互いの寸法や比率が異なって表される場合もある。本願明細書と各図において,既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。 Each embodiment will be described below with reference to the drawings. The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the size ratio between parts, etc. are not necessarily the same as in reality. Furthermore, even when the same part is shown, the dimensions and ratios may be shown differently depending on the drawing. In this specification and each drawing, elements similar to those described above with respect to the previous drawings are given the same reference numerals, and detailed explanations will be omitted as appropriate.

(第1実施形態)
以下、本実施形態に係る光学検査装置10について、図を参照して詳細に説明する。
First Embodiment
Hereinafter, the optical inspection device 10 according to this embodiment will be described in detail with reference to the drawings.

本明細書において、光は電磁波の一種であり、ガンマ線、X線、紫外線、可視光、赤外線、電波なども含まれるとする。本実施形態において、光は可視光であるとし、例えば波長は400nmから750nmの領域にあるとする。 In this specification, light is a type of electromagnetic wave, and includes gamma rays, X-rays, ultraviolet light, visible light, infrared light, and radio waves. In this embodiment, the light is visible light, and has a wavelength in the range of 400 nm to 750 nm, for example.

図1には、本実施形態に係る光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投影(投映)像PIの模式的な断面図を示す。本明細書において、投影と投映は同じ意味で用いる。図1中の本実施形態に係る光学装置12は、撮像部26(第2実施形態の図7参照)の図示を省略する。このため、ここでの光学装置12は、主として、物体の表面OSに所望の色の光を適宜の角度から斜入射で照射、あるいは垂直に照射する、照明装置として用いることができるものとして説明する。 Figure 1 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to this embodiment, and the virtual projection image PI formed by the optical device 12. In this specification, the terms "projection" and "projection" are used interchangeably. In the optical device 12 according to this embodiment in Figure 1, the imaging unit 26 (see Figure 7 of the second embodiment) is omitted. For this reason, the optical device 12 here is described as being capable of being used primarily as an illumination device that irradiates the surface OS of an object with light of a desired color at an appropriate angle with oblique incidence or perpendicularly.

本実施形態に係る光学装置12は、投影(投映)部22と、照明光学素子24とを備える。 The optical device 12 in this embodiment includes a projection unit 22 and an illumination optical element 24.

投映部22は、光源32を備えており、少なくとも異なる2つの波長スペクトルの光を同時期に発することができる。これらの波長スペクトルをそれぞれ、第1の波長スペクトル、第2の波長スペクトルとする。例えば、第1の波長スペクトルは、波長450nmをピークにし、半値全幅が100nmである青光とする。また、第2の波長スペクトルは、例えば、波長650nmをピークにし、半値全幅が100nmである赤光とする。ただし、これに限らず、光源32から発する波長スペクトルはどのようなものでもよい。 The projection unit 22 is equipped with a light source 32 and can emit light of at least two different wavelength spectra at the same time. These wavelength spectra are respectively referred to as a first wavelength spectrum and a second wavelength spectrum. For example, the first wavelength spectrum is blue light with a peak at a wavelength of 450 nm and a full width at half maximum of 100 nm. The second wavelength spectrum is red light with a peak at a wavelength of 650 nm and a full width at half maximum of 100 nm. However, this is not limited to this, and any wavelength spectrum may be emitted from the light source 32.

投映部22は、光源32から同時期に発せられた光束を投影面PPに結像し、さまざまな像を形成できる。ここで結像とは、ある点からの光束を別の点に集めることを意味する。結像元の点を物点と呼び、結像先の点を像点と呼ぶ。このような結像による像点の集合によって像を形成することを投映とする。投映部22から、第1の波長スペクトルを持つ第1の光線L1が投映面PP上に投映され、第2の波長スペクトルを持つ第2の光線L2が投映面PP上の別の点に投映される。投映部22で投映される像を投映像PIと呼ぶ。 The projection unit 22 can form various images by focusing light beams emitted simultaneously from the light source 32 on the projection surface PP. Here, imaging means concentrating light beams from one point at another point. The point from which the image is formed is called the object point, and the point to which the image is formed is called the image point. The formation of an image by a collection of image points resulting from such imaging is called projection. A first light ray L1 having a first wavelength spectrum is projected from the projection unit 22 onto the projection surface PP, and a second light ray L2 having a second wavelength spectrum is projected onto another point on the projection surface PP. The image projected by the projection unit 22 is called the projected image PI.

照明光学素子24は、光を結像することができる。照明光学素子24として、例えば、単レンズ、複数枚で構成された組レンズ、凹面ミラー、回折格子、屈折率勾配型レンズ(GRINレンズ)、などでよい。つまり、照明光学素子24は、光を結像できるものならば何でもよい。照明光学素子24によって、無限遠にある点の集合が結像される面を照明焦点面FP1とする。ただし、照明焦点面FP1は、単に焦点面と呼ぶこともある。照明焦点面FP1およびその近傍を、照明焦点面領域FP1Aあるいは単に、焦点面領域と呼ぶ。照明光学素子24の光軸C1は、焦点面FP1に直交する直線であり、かつその直線上の点から発した光は再びその直線上に結像されるものとする。本実施形態の照明光学素子24は、例えばフレネルレンズとする。フレネルレンズ24は、他のレンズと比べて、焦点距離が短くても有効径の大きなレンズを実現できる。これにより、照明焦点面FP1からフレネルレンズ24に到達する光線の入射角を大きくすることができる。そのため、照明光学素子24としてフレネルレンズを用いると、物体面OSへの入射角を大きくすることができるという効果がある。ただし、照明光学素子24は、この限りではなく、光を結像する種々の光学素子を用いることができる。 The illumination optical element 24 can form an image of light. The illumination optical element 24 may be, for example, a single lens, a lens assembly consisting of multiple lenses, a concave mirror, a diffraction grating, a refractive index gradient lens (GRIN lens), etc. In other words, the illumination optical element 24 may be anything that can form an image of light. The surface on which the illumination optical element 24 forms an image of a set of points at infinity is defined as the illumination focal plane FP1. However, the illumination focal plane FP1 may also be simply called the focal plane. The illumination focal plane FP1 and its vicinity are called the illumination focal plane area FP1A or simply the focal plane area. The optical axis C1 of the illumination optical element 24 is a straight line perpendicular to the focal plane FP1, and light emitted from a point on that straight line is imaged again on that straight line. The illumination optical element 24 of this embodiment is, for example, a Fresnel lens. Compared to other lenses, the Fresnel lens 24 can realize a lens with a large effective diameter even if it has a short focal length. This makes it possible to increase the angle of incidence of the light rays reaching the Fresnel lens 24 from the illumination focal plane FP1. Therefore, using a Fresnel lens as the illumination optical element 24 has the effect of increasing the angle of incidence to the object surface OS. However, the illumination optical element 24 is not limited to this, and various optical elements that form an image of light can be used.

物体Oは、光を透過するものでも反射するものでもどちらでもよい。あるいは、物体Oは、半透明なものでもよい。物体Oの表面あるいは物体の内部における点を物点と呼ぶ。以下では、特に断らない限り、物体Oは光を反射するものとし、物点は物体Oの表面上にあるとする。物体Oの表面を、物体表面あるいは物体面と呼ぶこともある。ただし、厳密には、物体表面は物体に属する表面であるのに対し、物体面は、照明によって照明される面のことを意味する。以下、物体表面あるいは物体面に対して符号OSを付すものとする。 Object O may be either light transmitting or light reflecting. Alternatively, object O may be translucent. A point on the surface of object O or inside the object is called an object point. In the following, unless otherwise specified, object O is assumed to reflect light and object points are assumed to be on the surface of object O. The surface of object O may also be called an object surface or object surface. However, strictly speaking, an object surface is a surface that belongs to an object, whereas an object surface means a surface that is illuminated by lighting. Hereinafter, the symbol OS will be used to refer to object surface or object surface.

投映部22から発せられた光束は、照明光学素子24の照明焦点面領域FP1Aを通過し、照明光学素子24を通過して物体面OSへと照射される。光束の発散角としては、光束に含まれる光線の光軸C1に対する最大の広がり角度とする。照明焦点面FP1を通過した直後の光束の発散角を第1の発散角α1とし、照明焦点面FP1に入射直前の光束の発散角を第2の発散角α2とする。ただし、投映部22からの光束が集光する光束(集光束)である場合もある。この場合、第2の発散角α2は0とする。 The light beam emitted from the projection unit 22 passes through the illumination focal plane area FP1A of the illumination optical element 24, and is irradiated onto the object plane OS through the illumination optical element 24. The divergence angle of the light beam is the maximum spread angle of the light rays contained in the light beam with respect to the optical axis C1. The divergence angle of the light beam immediately after passing through the illumination focal plane FP1 is the first divergence angle α1, and the divergence angle of the light beam immediately before entering the illumination focal plane FP1 is the second divergence angle α2. However, there are cases where the light beam from the projection unit 22 is a converging light beam (converging beam). In this case, the second divergence angle α2 is 0.

投映部22は、光源32から同時期に発する光を変更し、仮想投映像PIを瞬時に変更(変化)することができる。例えば、投映部22は、カラープロジェクターでよい。プロジェクターにはさまざまな種類があるが、例えば、DLP(Digital Lighting Processing)や液晶光学素子を使い、画像を拡大・縮小・等倍に投映する装置を用いるとする。投映部22としてのこれらプロジェクターは、電気的に投映像を瞬時に切り替えることができる。あるいは、投映部22は、スライドを投影するスライドプロジェクタ、又は、透明なシート上に書いた画像を投映する、オーバーヘッドプロジェクタ(OHP)などでもよい。ただし、これら投映部22は、機械的に投映像を瞬時に切り替えることができるものとする。本実施形態においては、投映部22は、例えば、DLPを用いたものとする。ただし、投映部22は、この限りではなく、種々のものを用いることができる。 The projection unit 22 can change the light emitted from the light source 32 at the same time and instantly change (change) the virtual projection image PI. For example, the projection unit 22 may be a color projector. There are various types of projectors, but for example, a device that uses DLP (Digital Lighting Processing) or liquid crystal optical elements to project an image at enlarged, reduced, or actual size is used. These projectors as the projection unit 22 can instantly switch the projection image electrically. Alternatively, the projection unit 22 may be a slide projector that projects slides, or an overhead projector (OHP) that projects an image written on a transparent sheet. However, these projection units 22 can instantly switch the projection image mechanically. In this embodiment, the projection unit 22 uses, for example, a DLP. However, the projection unit 22 is not limited to this, and various types can be used.

次に、本実施形態に係る光学検査装置10の光学装置12の動作について述べる。 Next, we will describe the operation of the optical device 12 of the optical inspection device 10 according to this embodiment.

投映部22から発せられた光束は、投映面PP上に投影像PIを形成する。ただし、像は大気環境中に形成される。この状況を強調するため、投映面PP上の投映像PIを仮想投映像とも呼ぶことにする。投映部22によって決定される投映面PPの位置は、照明光学素子24の焦点面領域FP1Aとする。つまり、焦点面領域FP1Aに投映面PPが配置される。したがって、投映部22は、光源32からの光束を、焦点面FP1又は焦点面領域FP1Aにおいて結像する。 The light beam emitted from the projection unit 22 forms a projected image PI on the projection surface PP. However, the image is formed in an atmospheric environment. To emphasize this situation, the projected image PI on the projection surface PP is also referred to as a virtual projected image. The position of the projection surface PP determined by the projection unit 22 is the focal plane area FP1A of the illumination optical element 24. In other words, the projection surface PP is located in the focal plane area FP1A. Therefore, the projection unit 22 forms an image of the light beam from the light source 32 on the focal plane FP1 or the focal plane area FP1A.

仮想投映像PIは、第1の仮想領域PIA1と第2の仮想領域PIA2を有する。第1の仮想領域PIA1は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成される。また、第2の仮想領域PIA2は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面PPに結像されることによって形成される。第1の仮想領域PIA1は、投映面PPで光軸C1と交わるように形成される。第2の仮想領域PIA2は、投映面PPで光軸C1と交わらないように形成される。ただし、仮想投映像PIはこの限りではなく、第1の仮想領域PIA1と第2の仮想領域PIA2とを投映面PP上で光学的に分けることができれば、何でもよい。仮想投映像PIは、例えばRGBなど、撮像部26で分光し得る波長の光で、投映面PP上の適宜のエリアPIA1,PIA2を区画して形成することが好適である。投映部22で投映される仮想投映像PIの第1の仮想領域PIA1及び第2の仮想領域PIA2は、投映部22側から照明光学素子24側を見たとき、図2に示すように形成され得る。すなわち、投映面PPにおいて、仮想投映像PIの第1の仮想領域PIA1及び第2の仮想領域PIA2は、それぞれ矩形状で隣接する。ただし、この限りではなく、仮想投映像はなんでもよい。投映部22により仮想投影像PIを瞬時に変更することには、このような仮想投映像PIの第1の仮想領域PIA1及び第2の仮想領域PIA2の縮尺を変更することも含まれる。 The virtual projection image PI has a first virtual area PIA1 and a second virtual area PIA2. The first virtual area PIA1 is formed by forming an image on the projection surface PP of a light flux having a first light ray L1 having a first wavelength spectrum as a principal ray. The second virtual area PIA2 is formed by forming an image on the projection surface PP of a light flux having a second light ray L2 having a second wavelength spectrum as a principal ray. The first virtual area PIA1 is formed so as to intersect with the optical axis C1 on the projection surface PP. The second virtual area PIA2 is formed so as not to intersect with the optical axis C1 on the projection surface PP. However, the virtual projection image PI is not limited to this, and any image may be used as long as the first virtual area PIA1 and the second virtual area PIA2 can be optically separated on the projection surface PP. It is preferable to form the virtual projection image PI by dividing appropriate areas PIA1 and PIA2 on the projection surface PP with light of wavelengths that can be dispersed by the imaging unit 26, such as RGB. The first virtual area PIA1 and the second virtual area PIA2 of the virtual projection image PI projected by the projection unit 22 can be formed as shown in FIG. 2 when viewed from the projection unit 22 toward the illumination optical element 24. That is, on the projection surface PP, the first virtual area PIA1 and the second virtual area PIA2 of the virtual projection image PI are adjacent to each other in a rectangular shape. However, this is not limited to this, and any virtual projection image may be used. Instantaneous change of the virtual projection image PI by the projection unit 22 also includes changing the scale of the first virtual area PIA1 and the second virtual area PIA2 of such a virtual projection image PI.

投映部22で投映される仮想投映像PIの第1の仮想領域PIA1及び第2の仮想領域PIA2は、投映部22側から照明光学素子24側を見たとき、その他、例えば、照明光学素子24の光軸C1に対して図3に示すように回転対称でもよく、図4に示すようにストライプ状に並べられていてもよく、図5に示すように放射状に形成されていてもよい。つまり、仮想投映像PIは、少なくとも第1の仮想領域PIA1及び第2の仮想領域PIA2が区画できれば、どのような形状でもよい。また、投映部22は、例えばこれら図2から図5に示す仮想投映像PIを、時系列的に変化させることが可能である。投映部22は、例えば順に又はランダムに、撮像部26の撮像素子56の適宜のフレームレートにおいて、例えば所定の投映像PIを時系列的に投映する。このため、投映部22が投映面PPに時系列的に投映する単位時間あたりの投映像PIの数は、適宜に設定可能である。このようにして、撮像部26で取得できる像は、投映面PPへの投映像PIに応じて変化する。つまり、撮像部26において、物体面OSの欠陥の有無を検査するための一種又は多種の像を、投映像PIに応じて得ることができる。 When the illumination optical element 24 side is viewed from the projection unit 22 side, the first virtual area PIA1 and the second virtual area PIA2 of the virtual projection image PI projected by the projection unit 22 may be rotationally symmetric with respect to the optical axis C1 of the illumination optical element 24 as shown in FIG. 3, may be arranged in a stripe pattern as shown in FIG. 4, or may be formed radially as shown in FIG. 5. In other words, the virtual projection image PI may have any shape as long as at least the first virtual area PIA1 and the second virtual area PIA2 can be partitioned. In addition, the projection unit 22 can change the virtual projection image PI shown in FIG. 2 to FIG. 5 in a time series. The projection unit 22 projects, for example, a predetermined projection image PI in a time series at an appropriate frame rate of the imaging element 56 of the imaging unit 26, for example, in order or randomly. For this reason, the number of projection images PI per unit time that the projection unit 22 projects in a time series onto the projection surface PP can be appropriately set. In this way, the image that can be acquired by the imaging unit 26 changes depending on the projection image PI onto the projection surface PP. In other words, the imaging unit 26 can obtain one or more types of images for inspecting the presence or absence of defects on the object surface OS depending on the projection image PI.

なお、図3に示す例では、第1の仮想領域PIA1に照明光学素子24の光軸C1が交差し、図4及び図5に示す例では、例えば3つの第1の仮想領域PIA1と3つの第2の仮想領域PIA2のいずれか1つに照明光学素子24の光軸C1が交差する。 In the example shown in FIG. 3, the optical axis C1 of the illumination optical element 24 intersects with the first virtual area PIA1, and in the examples shown in FIG. 4 and FIG. 5, the optical axis C1 of the illumination optical element 24 intersects with, for example, one of the three first virtual areas PIA1 and one of the three second virtual areas PIA2.

本実施形態では、図1及び図2に示す仮想投映像PIを、投影面PPに投映するものとする。 In this embodiment, the virtual projection image PI shown in Figures 1 and 2 is projected onto the projection surface PP.

焦点面領域FP1Aを通過した直後の光束の発散角は、その直前の光束のものに対して大きくなる。これは、投映部22によって、投映像PIが焦点面領域FP1Aで結像されるからである。つまり、投映部22は、光源32からの光束が焦点面FP1又は焦点面領域FP1Aを通過した直後の発散角を、焦点面FP1又は焦点面領域FP1Aを通過する直前のもの(発散角)に比べて大きくすることができる。これによって、第1の発散角α1は第2の発散角α2に比べて大きくなる。これにより、照明光学素子24に到達する光束は、照明光学素子24の局所的な領域ではなく、より広い領域に渡って到達することができる。そのため、本実施形態に係る光学装置12を用いる場合、照明光学素子24から物体面OSに照射される照射野が広くなるという効果がある。 The divergence angle of the light beam immediately after passing through the focal plane area FP1A is larger than that of the light beam immediately before passing through the focal plane area FP1A. This is because the projection unit 22 forms an image of the projected image PI on the focal plane area FP1A. In other words, the projection unit 22 can make the divergence angle of the light beam from the light source 32 immediately after passing through the focal plane FP1 or the focal plane area FP1A larger than that (divergence angle) immediately before passing through the focal plane FP1 or the focal plane area FP1A. This makes the first divergence angle α1 larger than the second divergence angle α2. This allows the light beam that reaches the illumination optical element 24 to reach a wider area rather than a local area of the illumination optical element 24. Therefore, when the optical device 12 according to this embodiment is used, there is an effect that the irradiation field irradiated from the illumination optical element 24 to the object surface OS is wider.

照明光学素子24は、照明焦点面FP1の任意の点を通過して入射する光を物体面OS上に照射する。ここで、幾何光学に基づくと(非特許文献2参照)、照明光学素子24を通過する光線は、照明焦点面FP1における通過点に応じて照明光学素子24の光軸C1に対する角度が定まる。つまり、投映面PP又は照明焦点面FP1の同じ通過点から発する光は、照明光学素子24により全て同じ光線角度となる。これにより、第1の光線L1を主光線とする光束が投映面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第1の光線L1は、光軸C1に対する角度が第1の光線角度β1となって物体面OSに入射する。同様に、第2の光線L2を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第2の光線L2は、光軸C1に対する角度が第2の光線角度β2となって物体面OSに入射する。 The illumination optical element 24 irradiates the light incident through any point on the illumination focal plane FP1 onto the object plane OS. Here, based on geometric optics (see Non-Patent Document 2), the angle of the light passing through the illumination optical element 24 with respect to the optical axis C1 of the illumination optical element 24 is determined according to the passing point on the illumination focal plane FP1. In other words, the light emitted from the same passing point on the projection plane PP or the illumination focal plane FP1 all has the same light ray angle by the illumination optical element 24. As a result, when a light beam with the first light ray L1 as the principal ray is imaged on the projection plane PP, all the light rays contained in the light beam are made into parallel light beams having the same light ray angle by the illumination optical element 24 and irradiated onto the object plane OS. As a result, the first light ray L1 is incident on the object plane OS with an angle with respect to the optical axis C1 being the first light ray angle β1. Similarly, when a light beam with the second light ray L2 as the principal ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams with the same light ray angle and irradiated onto the object plane OS. As a result, the second light ray L2 is incident on the object plane OS at an angle of β2 with respect to the optical axis C1.

第1の発散角α1は、第2の発散角α2に比べて大きい。一方、投映像PIを変更しながら、第1の発散角α1を徐々に小さくしていき、光軸C1から離れた第2の仮想領域PIA2の外縁を光軸C1に近づけると、照明光学素子24から物体面OSに照射される照射野上の点のうち、その点に入射する光線角度の種類が減少する点が増えていくことになる。言い換えれば、第1の発散角α1を第2の発散角α2に比べて大きくすることにより、照明光学素子24から物体面OSに照射される照射野上の点に入射する光線角度の種類を増加することができるという効果がある。 The first divergence angle α1 is larger than the second divergence angle α2. On the other hand, by gradually decreasing the first divergence angle α1 while changing the projected image PI and bringing the outer edge of the second virtual area PIA2 away from the optical axis C1 closer to the optical axis C1, the number of points on the irradiation field irradiated from the illumination optical element 24 to the object surface OS at which the types of light ray angles incident on those points will decrease. In other words, by making the first divergence angle α1 larger than the second divergence angle α2, there is an effect of increasing the types of light ray angles incident on points on the irradiation field irradiated from the illumination optical element 24 to the object surface OS.

また、第1の波長スペクトルと第2の波長スペクトルの光は、色が異なる。これにより、光学装置12は、色ごとに光線角度の異なる光線束を物体面OSに照射できることになる。つまり、光学装置12は、色ごとに異なる入射角の光線を物体面OSに照射することができる。 In addition, the light of the first wavelength spectrum and the light of the second wavelength spectrum are different colors. This allows the optical device 12 to irradiate the object surface OS with a bundle of rays with different ray angles for each color. In other words, the optical device 12 can irradiate the object surface OS with rays with different angles of incidence for each color.

物体の表面OSからの反射光の方向分布は物体の表面OSの表面性状や表面形状に応じて変化する。反射光の方向分布は、BRDF(Bidirectional Reflectance Distribution Function)によって記述される。一般的に、BRDFによって物体の表面OSの表面性状や表面形状、つまり物体面情報を推定することができる。このBRDFは、撮像部26(図7参照)によって撮像される像に大きく影響を与える。つまり、逆に言えば、撮像部26によって撮像される像はBRDFに関する情報を有する。 The directional distribution of reflected light from the surface OS of an object changes depending on the surface properties and surface shape of the object's surface OS. The directional distribution of reflected light is described by a Bidirectional Reflectance Distribution Function (BRDF). In general, the surface properties and surface shape of the object's surface OS, that is, the object surface information, can be estimated using the BRDF. This BRDF has a significant effect on the image captured by the imaging unit 26 (see Figure 7). In other words, conversely, the image captured by the imaging unit 26 contains information related to the BRDF.

物体の表面OSのBRDFは、入射光線の入射角に応じて変化する。つまり、一つの入射角に対するBRDFよりも、2つの入射角に対する2つのBRDFのほうが情報量としては多くなる。このようにBRDFに関する情報が多くなるほど、物体の表面OSの状態を詳細に推定することができる。本実施形態に係る光学装置12の投映部22は、仮想投映像PIをさまざまに変化させ、それによって物体の表面OS対する入射角を瞬時に変化させることができる。そして、その都度、例えば撮像部26によって反射光を観察することにより、物体のより詳細な表面状態を取得できるという効果がある。 The BRDF of the surface OS of an object changes depending on the angle of incidence of the incident light. In other words, two BRDFs for two angles of incidence contain more information than a BRDF for one angle of incidence. The more information there is about the BRDF, the more detailed the condition of the surface OS of the object can be estimated. The projection unit 22 of the optical device 12 according to this embodiment can change the virtual projection image PI in various ways, thereby instantly changing the angle of incidence with respect to the surface OS of the object. Then, by observing the reflected light each time, for example with the imaging unit 26, it is possible to obtain a more detailed surface condition of the object.

さらに、例えば撮像部26は、投映面PPに適宜に区画して複数の仮想領域PIA1,PIA2にそれぞれ異なる色の投映像PIを投映し、物体の表面OSに対し、色ごとに異なる入射角の光線を入射すると、それぞれの入射角に応じた反射光を色で区別して同時に取得することができる。つまり、本実施形態に係る光学装置12により、少なくとも2つの異なる波長スペクトルの光線を、それぞれ異なる入射角の光線にすることができる。そのため、例えば撮像部26は、それぞれの入射角に応じた反射光を色で区別して同時に取得することができるという効果がある。これにより、例えば撮像部26は、物体の表面OSのより詳細なBRDF情報を取得できるという効果がある。これは特に、光学検査において、物体の表面OSの検査速度と精度の両方の向上に寄与する。 Furthermore, for example, the imaging unit 26 appropriately divides the projection surface PP into a plurality of virtual areas PIA1 and PIA2, projects projection images PI of different colors, and when light rays with different angles of incidence for each color are incident on the surface OS of the object, the reflected light corresponding to each angle of incidence can be distinguished by color and simultaneously acquired. In other words, the optical device 12 according to this embodiment can make light rays with at least two different wavelength spectra into light rays with different angles of incidence. Therefore, for example, the imaging unit 26 has the effect of being able to distinguish the reflected light corresponding to each angle of incidence by color and simultaneously acquire it. This has the effect of, for example, being able to acquire more detailed BRDF information of the surface OS of the object. This particularly contributes to improving both the inspection speed and accuracy of the surface OS of the object in optical inspection.

本実施形態によれば、後述する撮像部26の撮像素子56で撮像される画像において、物体面OSのうち平面である部分は、第1の光線角度β1による光の色(青光)が主となることが想定される。一方、撮像部26の撮像素子56で撮像される画像において、物体面OSのうち欠陥の部分は、欠陥の傾斜角度により色が変化するが、第2の光線角度β2による光の色(赤光)が主となったり、第1の光線角度β1による光の色と第2の光線角度β2による光の色とが混ざったりし得る。例えば欠陥の傾斜角が小さいほど、照明光学素子24の焦点面FP1に投映した仮想投映像PIのうち、光軸C1あるいは光軸C1に近い領域の色として像が取得され、傾斜角が大きいほど、照明光学素子24の焦点面FP1に投映した仮想投映像PIのうち、光軸C1から遠い領域の色として像が取得される。 According to this embodiment, in an image captured by the image sensor 56 of the image capture unit 26 described later, it is assumed that the color of light (blue light) due to the first light ray angle β1 will be predominant in the flat portion of the object surface OS. On the other hand, in an image captured by the image sensor 56 of the image capture unit 26, the color of the defective portion of the object surface OS changes depending on the inclination angle of the defect, but the color of light (red light) due to the second light ray angle β2 may be predominant, or the color of light due to the first light ray angle β1 may be mixed with the color of light due to the second light ray angle β2. For example, the smaller the inclination angle of the defect, the more the image is acquired as the color of the optical axis C1 or a region close to the optical axis C1 in the virtual projection image PI projected on the focal plane FP1 of the illumination optical element 24, and the larger the inclination angle, the more the image is acquired as the color of the region farther from the optical axis C1 in the virtual projection image PI projected on the focal plane FP1 of the illumination optical element 24.

特に光学検査において、さまざまな物体Oの種類に応じ、物体の表面OSに照射する光線の方向を最適なものに選択する必要がある。そのために、従来は、例えばさまざまな種類のリング照明(斜入射照明)を用意する必要があった。しかし、本実施形態に係る光学装置(照明装置)12を用いると、仮想投映像PIを瞬時に変化させて光線の入射角度を変更できるという効果がある。すなわち、本実施形態に係る1つの光学装置12を用いることによって、種々の大きさで多種の照明装置を選択的に用いることが、一台の装置で可能になる。 In particular, in optical inspection, it is necessary to select the optimal direction of the light beam to be irradiated onto the surface OS of the object depending on the type of object O. In the past, this required the preparation of various types of ring illumination (oblique incidence illumination), for example. However, by using the optical device (illumination device) 12 according to this embodiment, it is possible to instantly change the virtual projection image PI to change the angle of incidence of the light beam. In other words, by using one optical device 12 according to this embodiment, it is possible to selectively use a variety of illumination devices of various sizes with a single device.

本実施形態に係る光学装置12は、さまざまな投映部22を適用できる。そのため、光学装置12は、所定の領域FP1A(投影面PP及び照明焦点面FP1を含む)に仮想投映像PIを形成し得る市販の投映部22を幅広く選択できるという効果がある。また、光学装置12では、市販の投映部22を改造することなく使用できるという効果がある。 The optical device 12 according to this embodiment can be applied to a variety of projection units 22. Therefore, the optical device 12 has the advantage that it is possible to select from a wide range of commercially available projection units 22 capable of forming a virtual projection image PI in a predetermined area FP1A (including the projection plane PP and the illumination focal plane FP1). In addition, the optical device 12 has the advantage that it is possible to use commercially available projection units 22 without modifying them.

本実施形態に係る光学装置12は、焦点面FP1又はその近傍を含む焦点面領域FP1Aを有する照明光学素子24と、光源32を備える投映部22とを備える。そして、投映部22は、光源32から、少なくとも2つの異なる波長スペクトルの光を含む光束を照明光学素子24に発することができる。また、投映部22は、照明光学素子24の焦点面FP1又は焦点面領域FP1Aにおいて、2つの異なる波長スペクトルの光でそれぞれ異なる位置に投映し、投映像PIを形成する。このため、本実施形態に係る光学検査装置10の光学装置12によって、光線の方向(光束の方向)と波長スペクトルとを対応づけることが可能となる。波長スペクトルは、光線の色と同義と考えることができる。そのため、光学装置12によって、光線の方向と光線の色とを対応づけることが可能であるとも言える。 The optical device 12 according to this embodiment includes an illumination optical element 24 having a focal plane area FP1A including the focal plane FP1 or its vicinity, and a projection unit 22 including a light source 32. The projection unit 22 can emit a light beam including light of at least two different wavelength spectra from the light source 32 to the illumination optical element 24. The projection unit 22 also projects light of two different wavelength spectra at different positions on the focal plane FP1 or focal plane area FP1A of the illumination optical element 24 to form a projection image PI. Therefore, the optical device 12 of the optical inspection device 10 according to this embodiment can associate the direction of the light beam (direction of the light beam) with the wavelength spectrum. The wavelength spectrum can be considered to be synonymous with the color of the light beam. Therefore, it can be said that the optical device 12 can associate the direction of the light beam with the color of the light beam.

また、本実施形態に係る光学検査装置10の光学装置12の投映部22によって、瞬時に仮想投映像PIを変化させることができる。そのため、本実施形態に係る光学装置12は、さまざまな用途に応じて光線の方向と光線の色との対応づけを瞬時に変更できるという効果がある。 In addition, the projection unit 22 of the optical device 12 of the optical inspection device 10 according to this embodiment can instantly change the virtual projection image PI. Therefore, the optical device 12 according to this embodiment has the effect of instantly changing the correspondence between the direction of light rays and the color of light rays according to various applications.

(変形例)
第1実施形態の変形例について、図6を用いて述べる。
(Modification)
A modification of the first embodiment will be described with reference to FIG.

図6に示す本実施形態の変形例において、光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投映像PIの模式的な断面図を示す。図6に示す仮想投映像PIは光軸C1に直交する。本変形例において、第1の波長スペクトルと第2の波長スペクトルは第3実施形態での説明と同じである。 In a modified example of this embodiment shown in FIG. 6, a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 and the virtual projection image PI formed by the optical device 12 is shown. The virtual projection image PI shown in FIG. 6 is perpendicular to the optical axis C1. In this modified example, the first wavelength spectrum and the second wavelength spectrum are the same as those described in the third embodiment.

本変形例では、照明光学素子24の光軸C1上であって、照明焦点面FP1及びその近傍には、例えば黒色の遮光領域PIA0を形成する。遮光領域PIA0は、実際に存在していてもよく、仮想的なものでも良い。仮想的なものである場合、遮光領域PIA0には、光源32からの光が照射されないことが好適である。仮想的なものである場合、遮光領域PIA0の大きさや形状を電気的に変更することができる。 In this modified example, a black light-shielding area PIA0 is formed on the optical axis C1 of the illumination optical element 24 at and near the illumination focal plane FP1. The light-shielding area PIA0 may actually exist or may be virtual. If it is virtual, it is preferable that the light-shielding area PIA0 is not irradiated with light from the light source 32. If it is virtual, the size and shape of the light-shielding area PIA0 can be electrically changed.

次に、本変形例に係る光学検査装置10の光学装置12の動作について述べる。 Next, we will describe the operation of the optical device 12 of the optical inspection device 10 according to this modified example.

投映部22から発せられた光束は、投映面PP上に仮想投影像PIを形成する。 The light beam emitted from the projection unit 22 forms a virtual projection image PI on the projection surface PP.

仮想投映像PIは、第0の仮想領域(遮光領域)PIA0と、第1の仮想領域PIA1と、第2の仮想領域PIA2とを有する。 The virtual projection image PI has a zeroth virtual area (light-shielded area) PIA0, a first virtual area PIA1, and a second virtual area PIA2.

第0の仮想領域(遮光領域)PIA0は、投影面PPで照明光学素子24の光軸C1と交わるように形成される。 The zeroth virtual area (light-shielded area) PIA0 is formed so as to intersect with the optical axis C1 of the illumination optical element 24 on the projection plane PP.

第1の仮想領域PIA1は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成される。第1の仮想領域PIA1は、投映面PPで光軸C1と交わらないように形成される。また、第2の仮想領域PIA2は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面PPに結像されることによって形成される。第2の仮想領域PIA2は、投映面PPで光軸C1と交わらないように形成される。 The first virtual area PIA1 is formed by focusing a light beam having a first light ray L1 with a first wavelength spectrum as its principal ray on the projection surface PP. The first virtual area PIA1 is formed so as not to intersect with the optical axis C1 on the projection surface PP. The second virtual area PIA2 is formed by focusing a light beam having a second light ray L2 with a second wavelength spectrum as its principal ray on the projection surface PP. The second virtual area PIA2 is formed so as not to intersect with the optical axis C1 on the projection surface PP.

第1の光線L1を主光線とする光束が投映面PPに結像されると、投映面PPの位置に応じて、その光束に含まれる全ての光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第1の光線L1は、光軸C1に対する角度が第1の光線角度β1となって物体面OSに入射する。同様に、第2の光線L2を主光線とする光束が投影面PPに結像されると、投影面PPの位置に応じて、その光束に含まれる全ての光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第2の光線L2は、光軸C1に対する角度が第2の光線角度β2となって物体面OSに入射する。 When a light beam having a first light ray L1 as a principal ray is focused on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams having the same light ray angle and irradiated onto the object plane OS depending on the position of the projection plane PP. As a result, the first light ray L1 is incident on the object plane OS at a first light ray angle β1 relative to the optical axis C1. Similarly, when a light beam having a second light ray L2 as a principal ray is focused on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams having the same light ray angle and irradiated onto the object plane OS depending on the position of the projection plane PP. As a result, the second light ray L2 is incident on the object plane OS at a second light ray angle β2 relative to the optical axis C1.

このとき、物体面OSに、第1の光線L1を主光線とする光束と、第2の光線L2を主光線とする光束のみを入射させることができる。つまり、斜入射成分のみを入射することができる。言い換えれば、第0の仮想領域(遮光領域)PIA0により、遮光領域PIA0を形成することで、第1の光線L1を主光線とする光束及び第2の光線L2を主光線とする光束によって斜入射照明を実現することができる。これにより、物体面OSで散乱する成分のみを撮像することができ、暗視野撮像が可能となる。 At this time, only the light beam whose principal ray is the first light ray L1 and the light beam whose principal ray is the second light ray L2 can be incident on the object surface OS. In other words, only oblique incidence components can be incident. In other words, by forming the light-shielding area PIA0 using the 0th virtual area (light-shielding area) PIA0, it is possible to realize oblique incidence illumination using the light beam whose principal ray is the first light ray L1 and the light beam whose principal ray is the second light ray L2. This makes it possible to image only the components scattered at the object surface OS, enabling dark-field imaging.

ただし、仮想投映像PIはこの限りではなく、何でもよい。投映部22で投映される仮想投映像PIは、例えば、照明光学素子24の光軸C1に対して回転対称でもよく、ストライプ状でもよく、放射状でもよい。つまり、仮想投映像PIは、どのような形状でもよい。 However, the virtual projection image PI is not limited to this and can be anything. The virtual projection image PI projected by the projection unit 22 can be, for example, rotationally symmetric with respect to the optical axis C1 of the illumination optical element 24, striped, or radial. In other words, the virtual projection image PI can be of any shape.

以上から、本変形例に係る光学検査装置10の光学装置12によって、光線の方向(光束の方向)と波長スペクトルとを対応づけることが可能となる。また、光学装置12の投映部22によって、瞬時に仮想投映像PIを変化させることができる。例えば、投映面PPにおいて、各領域PIA0,PIA1,PIA2を適宜の方向に伸縮させることができる。そのため、本変形例に係る光学装置12は、さまざまな用途に応じて光線の方向と光線の色との対応づけを瞬時に変更できるという効果がある。 As described above, the optical device 12 of the optical inspection device 10 according to this modified example makes it possible to associate the direction of light rays (direction of light beams) with wavelength spectra. In addition, the projection unit 22 of the optical device 12 makes it possible to instantly change the virtual projection image PI. For example, on the projection surface PP, each of the areas PIA0, PIA1, and PIA2 can be expanded or contracted in an appropriate direction. Therefore, the optical device 12 according to this modified example has the effect of being able to instantly change the correspondence between the direction of light rays and the color of light rays according to various applications.

(第2実施形態)
図7には、第2実施形態に係る光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投影像PIの模式的な断面図を示す。本実施形態に係る光学検査装置10は、光学装置12と、処理装置14とを有する。
Second Embodiment
7 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to the second embodiment and a virtual projected image PI formed by the optical device 12. The optical inspection device 10 according to the present embodiment has the optical device 12 and a processing device 14.

本実施形態に係る光学検査装置10の光学装置12は、投映部22と、照明光学素子24と、撮像部26とを備える。本実施形態に係る光学検査装置10の光学装置12のうち、投映部22及び照明光学素子24は、第1実施形態で説明した光学装置12の投映部22及び照明光学素子24と同様の構成であるとする。このため、光学装置12の投映部22及び照明光学素子24の説明を適宜に省略する。 The optical device 12 of the optical inspection device 10 according to this embodiment includes a projection unit 22, an illumination optical element 24, and an imaging unit 26. Of the optical device 12 of the optical inspection device 10 according to this embodiment, the projection unit 22 and the illumination optical element 24 are configured similarly to the projection unit 22 and the illumination optical element 24 of the optical device 12 described in the first embodiment. For this reason, the description of the projection unit 22 and the illumination optical element 24 of the optical device 12 will be omitted as appropriate.

投映部22は、仮想投映像PIを瞬時に変更(変化)することができる。物体Oは不透明であり、表面で光を反射する。ただし、これに限らず、物体は透明でもよく、半透明でもよい。物体の表面を物体面OSとする。 The projection unit 22 can instantly change (vary) the virtual projection image PI. The object O is opaque and reflects light on its surface. However, this is not limited to this, and the object may be transparent or translucent. The surface of the object is referred to as the object surface OS.

図7において、投映部22によって物体面OSを照明する照明系を物体面OSの左側に描き、撮像部26によって物体表面OSから反射した光を用いて撮像する撮像系を物体面OSの右側に同時に描いた。つまり、図7の光学装置12は、物体面OSを境界として、照明側(照明系)と撮像側(撮像系)を左右に同時に描いた。しかし、実際には、物体面OSで反射される光は、投映部22の方向へと戻る。そのため、照明光学素子24と物体面OSとの間に破線で示すビームスプリッター26aを配置し、物体面OSで反射する光を図7中に破線で示す撮像部26へと導くことが必要になる。すなわち、図7中には、破線で示す撮像部26を、模式的に、物体面OSの右側に描いた。なお、図7中の物体Oも本来は適宜の厚さを有するが、厚さは無視して描いた。 In FIG. 7, an illumination system that illuminates the object surface OS by the projection unit 22 is drawn on the left side of the object surface OS, and an imaging system that captures an image using light reflected from the object surface OS by the imaging unit 26 is drawn on the right side of the object surface OS. In other words, the optical device 12 in FIG. 7 is drawn with the illumination side (illumination system) and the imaging side (imaging system) on the left and right sides at the boundary of the object surface OS. However, in reality, the light reflected by the object surface OS returns toward the projection unit 22. Therefore, it is necessary to place a beam splitter 26a shown by a dashed line between the illumination optical element 24 and the object surface OS and guide the light reflected by the object surface OS to the imaging unit 26 shown by a dashed line in FIG. 7. In other words, in FIG. 7, the imaging unit 26 shown by a dashed line is drawn diagrammatically on the right side of the object surface OS. Note that the object O in FIG. 7 also has an appropriate thickness, but the thickness is ignored when drawing.

投映部22の光源32から発する第1の波長スペクトルは、波長450nmをピークにし、半値全幅が100nmである青光とする。すなわち、第1の波長を第1の波長スペクトルに含まれる波長とし、かつ、第1の波長スペクトルのピークとする。また、光源32から発する第2の波長スペクトルは、波長650nmをピークにし、半値全幅が200nmである赤光とする。すなわち、第2の波長を第2の波長スペクトルに含まれる波長とし、かつ、第2の波長スペクトルのピークとする。ただし、第1の波長と第2の波長は互いに異なり、それぞれ、第1の波長スペクトルと第2の波長スペクトルに含まれるものならば何でもよい。また、光源32から発生する波長スペクトルは、これに限らず、どのようなものでもよい。ここでは、第2の波長スペクトルの半値全幅が200nmであり、第1の波長スペクトルに重なると想定される。このように、第1の波長スペクトルと第2の波長スペクトルとは、重なっていてもよい。なお、第1実施形態で説明したように、第2の波長スペクトルの半値全幅を100nmであるとすると、第1の波長スペクトルに重なる領域が小さくなる。このため、第1の波長スペクトルと第2の波長スペクトルとは、重なる部分があってもよく、重なる部分がなくてもよい。 The first wavelength spectrum emitted from the light source 32 of the projection unit 22 is blue light with a peak at a wavelength of 450 nm and a full width at half maximum of 100 nm. That is, the first wavelength is a wavelength included in the first wavelength spectrum and is the peak of the first wavelength spectrum. The second wavelength spectrum emitted from the light source 32 is red light with a peak at a wavelength of 650 nm and a full width at half maximum of 200 nm. That is, the second wavelength is a wavelength included in the second wavelength spectrum and is the peak of the second wavelength spectrum. However, the first wavelength and the second wavelength are different from each other, and may be anything as long as they are included in the first wavelength spectrum and the second wavelength spectrum, respectively. The wavelength spectrum generated from the light source 32 is not limited to this, and may be anything. Here, it is assumed that the full width at half maximum of the second wavelength spectrum is 200 nm and overlaps with the first wavelength spectrum. In this way, the first wavelength spectrum and the second wavelength spectrum may overlap. As described in the first embodiment, if the full width at half maximum of the second wavelength spectrum is 100 nm, the area that overlaps with the first wavelength spectrum is small. Therefore, the first wavelength spectrum and the second wavelength spectrum may or may not have an overlapping portion.

撮像部26は、撮像光学素子52と、撮像開口54と、撮像素子(イメージセンサ)56とを有する。 The imaging unit 26 has an imaging optical element 52, an imaging aperture 54, and an imaging element (image sensor) 56.

撮像光学素子52は、光を結像することができる。撮像光学素子52として、例えば、単レンズ、複数枚で構成された組レンズ、凹面ミラー、回折格子、屈折率勾配型レンズ(GRINレンズ)、などでよい。つまり、撮像光学素子52は、光を結像できるものならば何でもよい。撮像光学素子52によって、無限遠にある点の集合が結像される面を撮像焦点面FP2とする。ただし、撮像焦点面FP2は、単に焦点面と呼ぶこともある。撮像焦点面FP2、およびその近傍を撮像焦点面領域FP2Aあるいは単に、焦点面領域と呼ぶ。撮像光学素子52の光軸C2は、撮像焦点面FP2に直交する直線であり、かつその直線上の点から発した光は再びその直線上に結像されるものとする。本実施形態の撮像光学素子52は、組レンズとする。ただし、撮像光学素子52は、この限りではなく、光を結像する種々の光学素子を用いることができる。 The imaging optical element 52 can form an image of light. The imaging optical element 52 may be, for example, a single lens, a lens assembly consisting of multiple lenses, a concave mirror, a diffraction grating, a refractive index gradient lens (GRIN lens), etc. In other words, the imaging optical element 52 may be anything that can form an image of light. The surface on which the imaging optical element 52 forms an image of a set of points at infinity is defined as the imaging focal plane FP2. However, the imaging focal plane FP2 may also be simply called the focal plane. The imaging focal plane FP2 and its vicinity are referred to as the imaging focal plane area FP2A or simply as the focal plane area. The optical axis C2 of the imaging optical element 52 is a straight line perpendicular to the imaging focal plane FP2, and light emitted from a point on that straight line is imaged again on that straight line. The imaging optical element 52 of this embodiment is a lens assembly. However, the imaging optical element 52 is not limited to this, and various optical elements that form an image of light can be used.

撮像開口54は、撮像光学素子52の焦点面領域FP2Aに配置される。撮像開口54は例えばリング状で、撮像開口54の光軸C2近傍には貫通孔54aが設けられており、第1の波長と第2の波長の光を通過させる。一方、撮像開口54の貫通孔54aの周囲には、第1の波長と第2の波長の光を遮蔽する媒質(遮光体)54bが備えられている。このとき、幾何光学に基づくと、第1の波長と第2の波長に対し、撮像部26は物体側にテレセントリック性を有することになる。つまり、光学検査装置10の光学装置12の撮像部26は、光源32からの光のうち、少なくとも一つの波長の光に対して物体側テレセントリック性を有することになる。 The imaging aperture 54 is disposed in the focal plane region FP2A of the imaging optical element 52. The imaging aperture 54 is, for example, ring-shaped, and a through hole 54a is provided near the optical axis C2 of the imaging aperture 54, allowing light of the first wavelength and the second wavelength to pass through. Meanwhile, a medium (light shield) 54b that blocks light of the first wavelength and the second wavelength is provided around the through hole 54a of the imaging aperture 54. At this time, based on geometric optics, the imaging unit 26 has telecentricity on the object side for the first wavelength and the second wavelength. In other words, the imaging unit 26 of the optical device 12 of the optical inspection device 10 has object-side telecentricity for at least one wavelength of light from the light source 32.

撮像素子56は、少なくとも第1の波長と第2の光を分光し、それぞれ独立に受光信号を取得できる画素を有する。このため、撮像部26は、光源32からの光のうち、少なくとも2つの異なる波長スペクトルの光にそれぞれ含まれる少なくとも2つの異なる波長を分光できるとする。撮像素子56は、エリアセンサーでもよく、ラインセンサーでもよい。また、撮像素子56は、シングルピクセルでもよい。つまり、撮像素子56は、少なくとも2つの波長を分光でき、光を受光信号に変換できるものならばなんでもよい。また、撮像素子56の受光信号は、単に信号、信号値、画素値と呼ぶこともある。 The image sensor 56 has pixels that can separate at least the first wavelength and the second wavelength and obtain light reception signals independently. Therefore, the imaging unit 26 can separate at least two different wavelengths contained in light of at least two different wavelength spectra from the light source 32. The image sensor 56 may be an area sensor or a line sensor. The image sensor 56 may also be a single pixel. In other words, the image sensor 56 may be anything that can separate at least two wavelengths and convert light into a light reception signal. The light reception signal of the image sensor 56 may also be simply called a signal, a signal value, or a pixel value.

なお、撮像部26の撮像素子56には、処理装置14が有線又は無線により接続される。処理装置14は、撮像部26の撮像素子56を制御するだけでなく、投映部22の光源32を制御することが好適である。 The processing device 14 is connected to the imaging element 56 of the imaging unit 26 by wire or wirelessly. The processing device 14 not only controls the imaging element 56 of the imaging unit 26, but also preferably controls the light source 32 of the projection unit 22.

処理装置14は、撮像部26で撮像した画像を取得し、取得した画像に画像処理を施すためのプロセッサ62と、画像を例えば保存するための記憶装置64とを有する。 The processing device 14 has a processor 62 for acquiring images captured by the imaging unit 26 and performing image processing on the acquired images, and a storage device 64 for, for example, storing the images.

プロセッサ62は例えばCPUやGPUであるが、後述する演算(図8に示す物体表面OSの検査処理)を行うことができる素子であればなんでもよい。プロセッサ62は、処理装置14の処理に必要な演算及び制御などの処理を行うコンピュータの中枢部分に相当し、処理装置14全体を統合的に制御する。プロセッサ62は、ROM又は補助記憶デバイスなどの記憶装置64に記憶されたシステムソフトウェア、アプリケーションソフトウェア又はファームウェアなどのプログラムに基づいて、処理装置14の各種の機能を実現するべく制御を実行する。プロセッサ62は、例えば、CPU(central processing unit)、MPU(micro processing unit)、DSP(digital signal processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、GPU(graphics processing unit)等を含む。あるいは、プロセッサ62は、これらのうちの複数を組み合わせたものである。処理装置14に設けられるプロセッサ62は、1つであってもよく、複数であってもよい。 The processor 62 is, for example, a CPU or a GPU, but may be any element capable of performing the calculations described below (inspection processing of the object surface OS shown in FIG. 8). The processor 62 corresponds to the central part of a computer that performs processing such as calculations and control required for the processing of the processing device 14, and controls the entire processing device 14 in an integrated manner. The processor 62 executes control to realize various functions of the processing device 14 based on programs such as system software, application software, or firmware stored in a storage device 64 such as a ROM or an auxiliary storage device. The processor 62 includes, for example, a CPU (central processing unit), an MPU (micro processing unit), a DSP (digital signal processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a GPU (graphics processing unit). Alternatively, the processor 62 is a combination of two or more of these. The processor 62 provided in the processing device 14 may be one or more.

処理装置14は、記憶装置64に記憶されるプログラム等をプロセッサ62に実行させることにより、各種の機能を発揮させる処理を実行する。なお、処理装置14の制御プログラムは、処理装置14の記憶装置64に記憶されておらず、適宜のサーバー上やクラウド上に置かれていることも好適である。この場合、制御プログラムは、通信インタフェースを介して例えば光学検査装置10が有するプロセッサ62と通信しながら実行される。すなわち、本実施形態に係る処理装置14は、光学検査装置10が有していてもよく、光学検査装置10から離れた、各種の検査場のシステムのサーバーやクラウド上にあってもよい。このため、記憶装置64に記憶されるのではなく、サーバー又はクラウド上に光学検査プログラムがあり、通信インタフェースを介して例えば光学検査装置10が有するプロセッサ62と通信しながらプログラムが実行されることも好適である。したがって、プロセッサ62(処理装置14)は、後述する光学検査プログラム(光学検査アルゴリズム)を実行し得る。 The processing device 14 executes processes to perform various functions by having the processor 62 execute programs stored in the storage device 64. It is also preferable that the control program of the processing device 14 is not stored in the storage device 64 of the processing device 14, but is placed on an appropriate server or cloud. In this case, the control program is executed while communicating with, for example, the processor 62 of the optical inspection device 10 via a communication interface. That is, the processing device 14 according to this embodiment may be included in the optical inspection device 10, or may be located on a server or cloud of various inspection site systems away from the optical inspection device 10. For this reason, it is also preferable that the optical inspection program is not stored in the storage device 64, but is on a server or cloud, and the program is executed while communicating with, for example, the processor 62 of the optical inspection device 10 via a communication interface. Therefore, the processor 62 (processing device 14) can execute the optical inspection program (optical inspection algorithm) described later.

プロセッサ62(処理装置14)は、投映部22の光源32の発光タイミング、撮像素子56での画像データの取得タイミング、撮像素子56からの画像データの取得等を制御するとともに、ある画像に対して適宜の画像処理を行い得る。 The processor 62 (processing device 14) controls the timing of light emission of the light source 32 of the projection unit 22, the timing of image data acquisition by the image sensor 56, acquisition of image data from the image sensor 56, etc., and can perform appropriate image processing on a certain image.

また、記憶装置64は例えばHDDやSSDであるが、例えば画像を記憶(保存)できるものであればなんでもよい。 The storage device 64 may be, for example, a HDD or SSD, but may be anything that can store (save) images.

次に、本実施形態に係る光学検査装置10の動作について述べる。 Next, the operation of the optical inspection device 10 according to this embodiment will be described.

物体表面OSの標準面は平面であり、かつ滑らかであるとする。このとき、標準面に入射した光は、正反射される。正反射は、幾何光学に基づくと、入射面内における入射角と反射角が等しくなり、入射光線と反射光線は一対一に対応づけることができる。一方、物体表面OSに、凹凸や、汚れ、キズなどの欠陥が存在すると仮定する。すると、欠陥に入射した光は散乱され、さまざまな方向へと反射される。つまり、一つの入射光線に対して、さまざまな方向の反射光線が生じる。このような反射光線の方向分布はBRDFによって記述できる。 The standard surface of the object surface OS is assumed to be flat and smooth. In this case, light incident on the standard surface is specularly reflected. Based on geometric optics, in specular reflection, the angle of incidence and the angle of reflection on the plane of incidence are equal, and the incident light ray and the reflected light ray can be in one-to-one correspondence. On the other hand, assume that the object surface OS has defects such as unevenness, dirt, and scratches. In this case, light that is incident on the defects is scattered and reflected in various directions. In other words, for one incident light ray, reflected light rays are generated in various directions. The directional distribution of such reflected light rays can be described by the BRDF.

処理装置14のプロセッサ62は、投映部22の光源32を制御し、投映部22の光源32から所定の方向に光を発する。投映部22から発せられた光束は、投映面PP上に投影像PIを形成する。 The processor 62 of the processing device 14 controls the light source 32 of the projection unit 22 to emit light in a predetermined direction from the light source 32 of the projection unit 22. The light beam emitted from the projection unit 22 forms a projection image PI on the projection surface PP.

上述したように、仮想投映像PIは、互いに隣接する、第1の仮想領域PIA1と第2の仮想領域PIA2とを有する。第1の仮想領域PIA1は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成される。また、第2の仮想領域PIA2は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面PPに結像されることによって形成される。そして、第1の光線L1を主光線とする光束が投映面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第1の光線L1は、光軸C1に対する角度が第1の光線角度β1となって物体面OSに入射する。同様に、第2の光線L2を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第2の光線L2は、照明光学素子24の光軸C1に対する角度が第2の光線角度β2となって物体面OSに入射する。 As described above, the virtual projection image PI has a first virtual area PIA1 and a second virtual area PIA2 adjacent to each other. The first virtual area PIA1 is formed by forming an image on the projection surface PP of a light flux having a first light ray L1 having a first wavelength spectrum as a principal ray. The second virtual area PIA2 is formed by forming an image on the projection surface PP of a light flux having a second light ray L2 having a second wavelength spectrum as a principal ray. Then, when the light flux having the first light ray L1 as a principal ray is formed on the projection surface PP, all the light rays contained in the light flux are made into parallel light fluxes having the same light ray angle by the illumination optical element 24 and irradiated onto the object surface OS. As a result, the first light ray L1 is incident on the object surface OS at an angle of the first light ray angle β1 with respect to the optical axis C1. Similarly, when a light beam with the second light ray L2 as the principal ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams with the same light ray angle and irradiated onto the object plane OS. As a result, the angle of the second light ray L2 with respect to the optical axis C1 of the illumination optical element 24 becomes the second light ray angle β2 and is incident on the object plane OS.

第1の発散角α1は、第2の発散角α2に比べて大きい。一方、第1の発散角α1を徐々に小さくしていくと、物体面OSの照射野上の点のうち、その点に入射する光線角度の種類が減少する点が増えていくことになる。言い換えれば、第1の発散角α1を第2の発散角α2に比べて大きくすることにより、照明光学素子24から物体面OSに照射される照射野上の点に入射する光線角度の種類を増加させることができるという効果がある。また、第1の波長スペクトルと第2の波長スペクトルの光は、色が異なる。これにより、光学装置12は、色ごとに光線角度の異なる光線束を物体面OSに照射できることになる。つまり、光学装置12は、色ごとに異なる入射角の光線を物体面OSに照射することができる。 The first divergence angle α1 is larger than the second divergence angle α2. On the other hand, if the first divergence angle α1 is gradually reduced, the number of points on the irradiation field of the object surface OS at which the types of light ray angles incident on the points will decrease will increase. In other words, by making the first divergence angle α1 larger than the second divergence angle α2, it is possible to increase the types of light ray angles incident on points on the irradiation field irradiated from the illumination optical element 24 to the object surface OS. In addition, the light of the first wavelength spectrum and the second wavelength spectrum are different colors. This allows the optical device 12 to irradiate the object surface OS with light beams with different light ray angles for each color. In other words, the optical device 12 can irradiate the object surface OS with light beams with different incident angles for each color.

以上から、本実施形態に係る光学検査装置10の光学装置12によって、光線の方向(光束の方向)と波長スペクトルとを対応づけることが可能となる。また、光学装置12の投映部22によって、瞬時に仮想投映像PIを変化させることができる。そのため、本実施形態に係る光学装置12は、さまざまな用途に応じて光線の方向と光線の色との対応づけを瞬時に変更できるという効果がある。 From the above, the optical device 12 of the optical inspection device 10 according to this embodiment makes it possible to associate the direction of a light ray (direction of a light beam) with a wavelength spectrum. In addition, the projection unit 22 of the optical device 12 can instantly change the virtual projection image PI. Therefore, the optical device 12 according to this embodiment has the effect of being able to instantly change the correspondence between the direction of a light ray and the color of the light ray according to various applications.

光学検査装置10は、光学装置12の投映部22を用いて物体表面OSを照明し、撮像部26を用いて物体表面OSを撮像し、処理装置14のプロセッサ62で仮想投映像PIに応じた物体表面OSの画像を取得する(図8のステップS1)。 The optical inspection device 10 illuminates the object surface OS using the projection unit 22 of the optical device 12, captures an image of the object surface OS using the imaging unit 26, and obtains an image of the object surface OS corresponding to the virtual projection image PI using the processor 62 of the processing device 14 (step S1 in Figure 8).

まず、物体表面OSが標準面である場合を考える。この場合、図7に示すように、第1の光線L1は、物体表面OSで正反射され、撮像開口54を通過して撮像素子56で撮像される。ここで、第1の光線L1が反射されたときの反射光の、撮像光軸C2に対する成す角を第1の反射光線角γ1とする。一方、第2の光線L2は、物体表面OSで正反射され、撮像開口54で遮蔽される。ここで、第2の光線L2が反射されたときの反射光の、撮像光軸C2に対する成す角を第2の反射光線角γ2とする。これにより、第2の光線L2は撮像部26で撮像されない。つまり、物体表面OSが標準面の場合、撮像部26では、第1の波長のみで撮像され、第2の波長では撮像されない。言い換えれば、物体表面OSの標準面は、青光のみで撮像され、赤光では撮像されない。 First, consider the case where the object surface OS is a standard surface. In this case, as shown in FIG. 7, the first light ray L1 is specularly reflected by the object surface OS, passes through the imaging aperture 54, and is imaged by the imaging element 56. Here, the angle of the reflected light of the first light ray L1 relative to the imaging optical axis C2 when it is reflected is defined as the first reflected light ray angle γ1. On the other hand, the second light ray L2 is specularly reflected by the object surface OS and is blocked by the imaging aperture 54. Here, the angle of the reflected light of the second light ray L2 relative to the imaging optical axis C2 when it is reflected is defined as the second reflected light ray angle γ2. As a result, the second light ray L2 is not imaged by the imaging unit 26. In other words, when the object surface OS is a standard surface, the imaging unit 26 images it only with the first wavelength, and not with the second wavelength. In other words, the standard surface of the object surface OS is imaged only with blue light, and not with red light.

次に、物体表面OSに欠陥が存在する場合を考える。特に、第1の光線L1と第2の光線L2が到達する表面に欠陥が存在すると仮定する。すると、第1の光線L1は、物体表面OSの欠陥によって散乱され、BRDFが広がる。これによって、散乱された光の一部は撮像光学素子52及び撮像開口54を通過して撮像素子56で撮像される。一方、第2の光線L2も、物体表面OSの欠陥によって散乱され、BRDFが広がる。これによって、散乱された光の一部は撮像光学素子52及び撮像開口54を通過して撮像素子56で撮像される。つまり、物体表面OSに欠陥があると、その欠陥は第1の波長および第2の波長の光で撮像される。言い換えれば、物体表面OSの欠陥は、青光と赤光の両方で撮像される。 Next, consider the case where a defect exists on the object surface OS. In particular, assume that a defect exists on the surface where the first light ray L1 and the second light ray L2 reach. Then, the first light ray L1 is scattered by the defect on the object surface OS, and the BRDF spreads. As a result, a part of the scattered light passes through the imaging optical element 52 and the imaging aperture 54 and is imaged by the imaging element 56. On the other hand, the second light ray L2 is also scattered by the defect on the object surface OS, and the BRDF spreads. As a result, a part of the scattered light passes through the imaging optical element 52 and the imaging aperture 54 and is imaged by the imaging element 56. In other words, if there is a defect on the object surface OS, the defect is imaged with light of the first wavelength and the second wavelength. In other words, the defect on the object surface OS is imaged with both blue light and red light.

以上により、処理装置14(のプロセッサ62)は、物体表面OSの欠陥の有無を撮像部26の撮像素子56で取得される撮像画像の色によって判断できることになる。すなわち、処理装置14は、図8に示すように、撮像部26で取得した画像に基づいて、物体表面OSの欠陥の有無の検査を行う(ステップS2)。 As a result, the processing device 14 (processor 62) can determine whether or not there is a defect on the object surface OS based on the color of the image captured by the imaging element 56 of the imaging unit 26. That is, as shown in FIG. 8, the processing device 14 inspects the object surface OS for defects based on the image captured by the imaging unit 26 (step S2).

そして、処理装置14は、図8に示すように、本実施形態の例では、撮像素子56の全画素における受光信号に基づいて、1つの色の光(青光)が入射されたと判断したとき、被写体となる物体の表面OSに欠陥がない、と出力することができる。また、処理装置14は、撮像素子56の全画素における受光信号に基づいて、一部の画素における受光信号に2つの色(青光及び赤光)が入射されたと判断したとき、被写体となる物体の表面OSに欠陥がある、と出力することができる。このように、処理装置14は、被写体となる物体の表面OSに欠陥があるか否かを出力することができる(ステップS3)。したがって、処理装置14(プロセッサ62)は、光学検査を行う際、光源32から発する色の数、及び、撮像部26の撮像素子56の各画素で取得される色の数に基づいて物体表面OSの状態を出力する。 As shown in FIG. 8, in this embodiment, when the processing device 14 determines that one color of light (blue light) is incident based on the light receiving signals of all pixels of the image sensor 56, it can output that there is no defect on the surface OS of the object to be the subject. Also, when the processing device 14 determines that two colors (blue light and red light) are incident on the light receiving signals of some pixels based on the light receiving signals of all pixels of the image sensor 56, it can output that there is a defect on the surface OS of the object to be the subject. In this way, the processing device 14 can output whether or not there is a defect on the surface OS of the object to be the subject (step S3). Therefore, when performing optical inspection, the processing device 14 (processor 62) outputs the state of the object surface OS based on the number of colors emitted from the light source 32 and the number of colors acquired at each pixel of the image sensor 56 of the imaging unit 26.

光学検査装置10は、処理装置14によって、このような図8に示す物体表面OSの検査処理を、投映面PPに投映される仮想投映像PIを変化させるごとに行うことができる。このため、例えば、光学検査装置10は、処理装置14のプロセッサ62によって、それぞれ異なる複数の仮想投映像PIを投映面PPに投映するごとに撮像部26で撮像される像の色の情報に基づいて物体表面OSの光学検査を行い、それぞれ欠陥の有無の出力を行うことができる。処理装置14は、投映部22により異なる仮想投映像PIを投映面PPに投映するように電気的に又は機械的に切り替えたときに撮像素子56により撮像させるように同期させることで、適宜の速度で、種々の照明方式により、物体表面OSの光学検査を行うことができる。一般的な投映部22により異なる仮想投映像PIを投映面PPに投映するように電気的に又は機械的に切り替える場合、例えば略60fps以上の性能があると、投映部22は、1秒間に60画像以上を投映できる。また、撮像素子56で同期してその像を取得することで、比較的短時間で、異なる種々の方向からの光、種々の色の光を用いて、物体表面OSの光学検査を行うことができる。このため、本実施形態に係る光学検査装置10によれば、1種の従来の照明装置を用いて物体表面OSの光学検査を行うよりも、光学検査精度を向上させることができる。 The optical inspection device 10 can perform the inspection process of the object surface OS shown in FIG. 8 by the processing device 14 every time the virtual projection image PI projected on the projection surface PP is changed. For this reason, for example, the optical inspection device 10 can perform an optical inspection of the object surface OS based on the color information of the image captured by the imaging unit 26 every time a plurality of different virtual projection images PI are projected on the projection surface PP by the processor 62 of the processing device 14, and output the presence or absence of defects for each. The processing device 14 can perform optical inspection of the object surface OS at an appropriate speed and with various illumination methods by synchronizing the imaging by the imaging element 56 when the projection unit 22 electrically or mechanically switches to project different virtual projection images PI on the projection surface PP. When a general projection unit 22 electrically or mechanically switches to project different virtual projection images PI on the projection surface PP, for example, if the projection unit 22 has a performance of approximately 60 fps or more, the projection unit 22 can project 60 images or more per second. In addition, by synchronously acquiring the image using the imaging element 56, optical inspection of the object surface OS can be performed in a relatively short time using light from various different directions and various colors of light. Therefore, the optical inspection device 10 according to this embodiment can improve the optical inspection accuracy compared to optical inspection of the object surface OS using one type of conventional lighting device.

なお、撮像部26が撮像開口54を持たない場合、すなわち、撮像光学素子52と撮像素子56との間の撮像光学素子52の焦点面FP2に撮像開口54が存在しない場合、上記のように物体表面Oの欠陥の有無を色で識別することができなくなる。なぜならば、撮像開口54を持たない場合、物体表面OSの欠陥の有無にかかわらず、光源32から発する全ての色の光が撮像素子56で撮像されるからである。このことから、光学検査装置10の撮像部26は、光源32からの光のうち、少なくとも一つの波長の光に対して物体側テレセントリック性を有することにより、物体表面OSの欠陥の有無を識別できるという効果がある。 If the imaging section 26 does not have an imaging aperture 54, i.e., if the imaging aperture 54 does not exist on the focal plane FP2 of the imaging optical element 52 between the imaging optical element 52 and the imaging element 56, it becomes impossible to identify the presence or absence of defects on the object surface O by color as described above. This is because, if there is no imaging aperture 54, light of all colors emitted from the light source 32 is imaged by the imaging element 56 regardless of the presence or absence of defects on the object surface OS. For this reason, the imaging section 26 of the optical inspection device 10 has object-side telecentricity for at least one wavelength of light from the light source 32, thereby having the effect of being able to identify the presence or absence of defects on the object surface OS.

なお、本実施形態で説明した光学検査装置10の処理装置14は、後述する第3実施形態、第4実施形態、第5実施形態に係る光学装置12とともに用いることができる。 The processing device 14 of the optical inspection device 10 described in this embodiment can be used together with the optical device 12 according to the third, fourth, and fifth embodiments described below.

(変形例)
第2実施形態の光学検査装置10の光学装置12の撮像部26の変形例について図9を用いて説明する。本変形例において、撮像部26の撮像開口54以外は、第2実施形態で説明した光学検査装置10の光学装置12の撮像部26と同じである。すなわち、光学装置12の投映部22及び照明光学素子24は、第1実施形態及び第2実施形態で説明した構成と同じであるからここでの説明を省略する。
(Modification)
A modified example of the imaging section 26 of the optical device 12 of the optical inspection device 10 of the second embodiment will be described with reference to Fig. 9. In this modified example, the imaging section 26 is the same as the imaging section 26 of the optical device 12 of the optical inspection device 10 described in the second embodiment, except for the imaging opening 54 of the imaging section 26. That is, the projection section 22 and the illumination optical element 24 of the optical device 12 have the same configuration as those described in the first and second embodiments, and therefore will not be described here.

図9には、本変形例に係る光学検査装置10の光学装置12のうち、物体面OSよりも撮像部26側の模式的な断面図を示す。図9に示す断面図は、撮像部26の撮像光軸C2を含む。 Figure 9 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to this modified example, on the imaging unit 26 side from the object plane OS. The cross-sectional view shown in Figure 9 includes the imaging optical axis C2 of the imaging unit 26.

本変形例に係る撮像開口54は、第1の波長選択領域55aと第2の波長選択領域55bとを有する。本変形例に係る撮像開口54は、投映によって形成される仮想的なものではなく、実際に存在するものである。第1の波長選択領域55aは、第1の波長の光(例えば青光)を通過させる。しかし、第1の波長選択領域55aは、第2の波長の光(例えば赤光)を遮蔽する。第2の波長選択領域55bは、第2の波長の光を通過させる。しかし、第2の波長選択領域55bは、第1の波長の光を遮蔽する。なお、第1の波長選択領域55aは、撮像光学素子52の撮像焦点面FP2で撮像部26の光軸C2に交わるように配置される。第2の波長選択領域55bは、撮像光学素子52の撮像焦点面FP2で撮像部26の光軸C2に交わらないように配置される。 The imaging aperture 54 according to this modification has a first wavelength selection region 55a and a second wavelength selection region 55b. The imaging aperture 54 according to this modification is not a virtual one formed by projection, but an actual one. The first wavelength selection region 55a passes light of a first wavelength (e.g., blue light). However, the first wavelength selection region 55a blocks light of a second wavelength (e.g., red light). The second wavelength selection region 55b passes light of a second wavelength. However, the second wavelength selection region 55b blocks light of the first wavelength. The first wavelength selection region 55a is arranged so as to intersect with the optical axis C2 of the imaging unit 26 on the imaging focal plane FP2 of the imaging optical element 52. The second wavelength selection region 55b is arranged so as not to intersect with the optical axis C2 of the imaging unit 26 on the imaging focal plane FP2 of the imaging optical element 52.

本変形例の光学検査装置10の動作について説明する。 The operation of the optical inspection device 10 of this modified example will be described.

本変形例において、投映部22による仮想投映像PIは、第1の仮想領域PIA1と第2の仮想領域PIA2とを有する(図7参照)。 In this modified example, the virtual projected image PI by the projection unit 22 has a first virtual area PIA1 and a second virtual area PIA2 (see FIG. 7).

まず、第1の仮想領域PIA1は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成されるとする。第2の仮想領域IA2は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面PPに結像されることによって形成されるとする。このとき、第1の光線L1が第1の波長選択領域55aを通過する。第2の光線L2が第2の波長選択領域55bを通過する。すなわち、第1の光線L1及び第2の光線L2はともに撮像開口54を通過し、撮像素子56で撮像される。このことは、物体の表面OSの欠陥の有無に依存しない。つまり、物体表面OSは、欠陥の有無にかかわらず、撮像素子56により、第1の波長(例えば青光)と第2の波長(例えば赤光)で撮像される。つまり、本変形例に係る光学装置12の撮像素子56は、通常のカラー画像を取得できる。言い換えれば、本変形例に係る光学装置12の撮像素子56は、欠陥を含み得る物体の表面OSの明視野画像を取得できる。 First, the first virtual area PIA1 is formed by forming an image on the projection surface PP of a light flux having a first light ray L1 having a first wavelength spectrum as a principal ray. The second virtual area IA2 is formed by forming an image on the projection surface PP of a light flux having a second light ray L2 having a second wavelength spectrum as a principal ray. At this time, the first light ray L1 passes through the first wavelength selection area 55a. The second light ray L2 passes through the second wavelength selection area 55b. That is, both the first light ray L1 and the second light ray L2 pass through the imaging aperture 54 and are imaged by the imaging element 56. This does not depend on the presence or absence of defects on the surface OS of the object. That is, the object surface OS is imaged by the imaging element 56 at a first wavelength (e.g., blue light) and a second wavelength (e.g., red light) regardless of the presence or absence of defects. That is, the imaging element 56 of the optical device 12 according to this modified example can acquire a normal color image. In other words, the imaging element 56 of the optical device 12 in this modified example can acquire a bright-field image of the surface OS of an object that may contain defects.

次に、第1の仮想領域PIA1は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面PPに結像されることによって形成されるとする。第2の仮想領域は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成されるとする。これは、上述した例と比較し、青光と赤光が入れ替わっている。すなわち、処理装置14が光源32を制御し、青光と赤光との発光を上述した例と入れ替える。 Next, the first virtual area PIA1 is formed by focusing a light flux having a second light ray L2 with a second wavelength spectrum as its principal ray on the projection surface PP. The second virtual area is formed by focusing a light flux having a first light ray L1 with a first wavelength spectrum as its principal ray on the projection surface PP. In this case, the blue light and red light are swapped compared to the above example. That is, the processing device 14 controls the light source 32 to swap the emission of blue light and red light with the above example.

このとき、物体の表面OSが標準面であれば、第1の光線L1と第2の光線L2は撮像開口54でともに遮蔽される。つまり、標準面である物体の表面OSは撮像素子56に光が入射せず、撮像素子56で撮像されない。 At this time, if the surface OS of the object is a standard surface, both the first light ray L1 and the second light ray L2 are blocked by the imaging aperture 54. In other words, if the surface OS of the object is a standard surface, no light is incident on the imaging element 56, and the surface is not imaged by the imaging element 56.

一方、物体の表面OSに欠陥が存在し、欠陥は第1の光線L1と第2の光線L2の到達領域に存在すると仮定する。このとき、第1の光線L1と第2の光線L2はともに散乱され、それぞれのBRDFは広がる。これにより、それぞれの散乱光の一部は撮像開口54を通過することになる。これにより、撮像素子56は、第1の光線L1及び/又は第2の光線L2で欠陥が撮像される。つまり、本変形例に係る光学装置12の撮像素子56は、標準面に対して欠陥のコントラストを強調させた暗視野画像を取得できる。 On the other hand, assume that a defect exists on the surface OS of the object, and that the defect exists in the area reached by the first light ray L1 and the second light ray L2. In this case, both the first light ray L1 and the second light ray L2 are scattered, and the BRDFs of each spread out. As a result, a portion of each scattered light passes through the imaging aperture 54. As a result, the imaging element 56 images the defect with the first light ray L1 and/or the second light ray L2. In other words, the imaging element 56 of the optical device 12 according to this modified example can acquire a dark-field image in which the contrast of the defect is enhanced relative to the standard surface.

以上により、本変形例に係る光学装置12によれば、撮像開口54を少なくとも2つの波長選択領域55a,55bを有することにより、投映部22による投映像PIを変化させ、撮像素子56は、明視野画像と暗視野画像の両方を取得できるという効果がある。これにより、光学検査装置10は、物体表面OSの詳細情報を取得できる。 As described above, according to the optical device 12 of this modified example, by having the imaging aperture 54 with at least two wavelength selection regions 55a, 55b, the projection image PI by the projection unit 22 is changed, and the imaging element 56 can acquire both a bright field image and a dark field image. This allows the optical inspection device 10 to acquire detailed information about the object surface OS.

そして、本変形例において、処理装置14は、投影部22による投映像PIが異なることを識別できるとする。すなわち、本変形例では、処理装置14は、明視野画像を取得するモードと、暗視野画像を取得するモードとの切り替えを認識し得、それぞれについて、像を取得する(図8のステップS1参照)。処理装置14は、暗視野画像を取得するモードにおいて、撮像素子56の全画素における受光信号に基づいて、一部の画素における受光信号に2つの色(青光及び赤光)が入射されたか否かを判断することができる(図8のステップS2参照)。そして、処理装置14は、被写体となる物体の表面OSに欠陥があるか否かを出力することができる(図8のステップS3参照)。このように、光学検査装置10は、処理装置14を用いて図8に示す物体表面OSの検査処理を行い、被写体となる物体の表面OSに欠陥があるか否かを出力することができる。 In this modified example, the processing device 14 can identify that the projected image PI by the projection unit 22 is different. That is, in this modified example, the processing device 14 can recognize switching between a mode for acquiring a bright field image and a mode for acquiring a dark field image, and acquire an image for each mode (see step S1 in FIG. 8). In the mode for acquiring a dark field image, the processing device 14 can determine whether two colors (blue light and red light) are incident on the light receiving signals of some pixels based on the light receiving signals of all pixels of the image sensor 56 (see step S2 in FIG. 8). Then, the processing device 14 can output whether or not there is a defect on the surface OS of the object to be the subject (see step S3 in FIG. 8). In this way, the optical inspection device 10 can use the processing device 14 to perform the inspection process of the object surface OS shown in FIG. 8, and output whether or not there is a defect on the surface OS of the object to be the subject.

本変形例に係る撮像部26は、後述する第3実施形態及び第4実施形態に係る光学装置12に用いることができる。 The imaging section 26 of this modified example can be used in the optical device 12 according to the third and fourth embodiments described below.

(第3実施形態)
図10には、第3実施形態に係る光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投影像PIの模式的な断面図を示す。本実施形態は、変形例を含む第1実施形態及び変形例を含む第2実施形態で説明した光学検査装置10の変形例であって、変形例を含む第1実施形態及び変形例を含む第2実施形態で説明した部材と同一の部材又は同一の機能を有する部材には同一の符号を付し、説明を省略する。
Third Embodiment
10 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to the third embodiment, and the virtual projected image PI formed by the optical device 12. This embodiment is a modified example of the optical inspection device 10 described in the first embodiment including the modified example and the second embodiment including the modified example, and the same members or members having the same functions as the members described in the first embodiment including the modified example and the second embodiment including the modified example are given the same reference numerals, and description thereof will be omitted.

本実施形態に係る光学装置12は、投映部22と、照明光学素子24と、光拡散板(光拡散部)28とを有する。ここでは、第2実施形態(変形例を含む)で説明した撮像部26の図示を省略する。 The optical device 12 according to this embodiment has a projection section 22, an illumination optical element 24, and a light diffusion plate (light diffusion section) 28. Here, the imaging section 26 described in the second embodiment (including the modified example) is not shown.

投映部22は、仮想投映像PIを瞬時に変更(変化)することができる。本実施形態においては、投映部22は、例えば、液晶を用いたものとする。ただし、投映部22は、この限りではなく、上述したようにDLPを用いることもできる。 The projection unit 22 can instantly change (alter) the virtual projection image PI. In this embodiment, the projection unit 22 uses, for example, a liquid crystal. However, the projection unit 22 is not limited to this, and can also use a DLP as described above.

投映部22は、それぞれ異なる2つの波長スペクトルの光を発することができるたとえば2つの光源32を備えている。図6において、便宜上、光源32は一つのように描かれている。2つの光源32からの光は、投映レンズ36に到達する直前にダイクロイックミラーなどを用いて合波することができる。これらの波長スペクトルをそれぞれ、第1の波長スペクトル、第2の波長スペクトル、第3の波長スペクトルとする。例えば、第1の波長スペクトルは、波長450nmをピークにし、半値全幅が100nmである青光とする。また、第2の波長スペクトルは、波長650nmをピークにし、半値全幅が100nmである赤光とする。第3の波長スペクトルは、第2の波長スペクトルと同じとする。ただし、これに限らず、波長スペクトルはどのようなものでもよい。 The projection unit 22 is equipped with, for example, two light sources 32 capable of emitting light of two different wavelength spectra. In FIG. 6, for convenience, the light source 32 is depicted as one. The light from the two light sources 32 can be combined using a dichroic mirror or the like just before reaching the projection lens 36. These wavelength spectra are respectively referred to as the first wavelength spectrum, the second wavelength spectrum, and the third wavelength spectrum. For example, the first wavelength spectrum is blue light with a peak at a wavelength of 450 nm and a full width at half maximum of 100 nm. The second wavelength spectrum is red light with a peak at a wavelength of 650 nm and a full width at half maximum of 100 nm. The third wavelength spectrum is the same as the second wavelength spectrum. However, this is not limited to this, and any wavelength spectrum may be used.

投映部22は、液晶の空間変調器34と投映レンズ36とを備えている。投映レンズ36は、光源32から発して空間変調器34を通過した光束を投影面PPに結像する。空間変調器34は複数の画素を持ち、それぞれの画素を独立に変調させることにより、さまざまな像を形成できる。空間変調器34は、図6では便宜上、一つであるように描かれている。実際には、2つの光源32からの異なる波長スペクトルの光が通過する2つの空間変調器34によって、それらの光を独立に空間変調し、ダイクロイックミラーなどを用いて合波する。合波後、投映レンズ36に合波した光を入射させる。投映部22によって、第1の波長スペクトルを持つ第1の光線L1、第2の波長スペクトルを持つ第2の光線L2、第3の波長スペクトルを持つ第3の光線L3が投映面PP上のそれぞれ別の点に投映される。 The projection unit 22 includes a liquid crystal spatial modulator 34 and a projection lens 36. The projection lens 36 forms an image on the projection surface PP of the light beam emitted from the light source 32 and passing through the spatial modulator 34. The spatial modulator 34 has a plurality of pixels, and various images can be formed by independently modulating each pixel. For convenience, the spatial modulator 34 is depicted as being one in FIG. 6. In reality, the light beams having different wavelength spectra from the two light sources 32 are spatially modulated independently by the two spatial modulators 34 through which the light beams pass, and are combined using a dichroic mirror or the like. After the combination, the combined light beams are made incident on the projection lens 36. The projection unit 22 projects the first light beam L1 having the first wavelength spectrum, the second light beam L2 having the second wavelength spectrum, and the third light beam L3 having the third wavelength spectrum onto different points on the projection surface PP.

照明光学素子24は、本実施形態において、複数のレンズからなる組レンズとする。ただし、図6においては、便宜上、組レンズを一枚のレンズで模式的に描いている。 In this embodiment, the illumination optical element 24 is a lens assembly made up of multiple lenses. However, for convenience, in FIG. 6, the lens assembly is depicted as a single lens.

投映部22から発せられた光束は、照明光学素子24の照明焦点面領域FP1Aを通過し、照明光学素子24を通過して物体面OSへと照射される。照明焦点面FP1を通過直後の光束の発散角を第1の発散角α1とし、照明焦点面FP1に入射直前の光束の発散角を第2の発散角α2とする。ただし、投映部22からの光束が集光束である場合もある。この場合、第2の発散角α2は0とする。 The light beam emitted from the projection unit 22 passes through the illumination focal plane area FP1A of the illumination optical element 24, and is then irradiated onto the object plane OS through the illumination optical element 24. The divergence angle of the light beam immediately after passing through the illumination focal plane FP1 is defined as the first divergence angle α1, and the divergence angle of the light beam immediately before entering the illumination focal plane FP1 is defined as the second divergence angle α2. However, there are also cases where the light beam from the projection unit 22 is a converging beam. In this case, the second divergence angle α2 is defined as 0.

光拡散板28は、照明焦点面FP1又は照明焦点面領域FP1Aに配置される。光拡散板28は、投影像のような仮想的なものではなく、実体があるものとする。光拡散板28は、光束が焦点面FP1又は焦点面領域FP1Aを通過する際、光束の発散角を大きくする。つまり、光拡散板28を通過した光の発散角は、通過前の発散角に比べて大きくなる。図10中、便宜上、照明焦点面FP1に仮想投影像PIを配置し、仮想投影像PIの下流側に隣接する位置に光拡散板28を配置するように描いた。例えば、照明焦点面FP1に仮想投影像PIを配置し、かつ、光拡散板28を配置することも好適である。 The light diffuser 28 is disposed on the illumination focal plane FP1 or the illumination focal plane area FP1A. The light diffuser 28 is not a virtual one like a projected image, but has a real entity. The light diffuser 28 increases the divergence angle of the light beam when it passes through the focal plane FP1 or the focal plane area FP1A. In other words, the divergence angle of the light that has passed through the light diffuser 28 is larger than the divergence angle before passing through. For convenience, in FIG. 10, the virtual projected image PI is disposed on the illumination focal plane FP1, and the light diffuser 28 is depicted as being disposed adjacent to the virtual projected image PI on the downstream side. For example, it is also preferable to dispose the virtual projected image PI on the illumination focal plane FP1 and the light diffuser 28.

次に、本実施形態に係る光学検査装置10の動作について述べる。 Next, the operation of the optical inspection device 10 according to this embodiment will be described.

処理装置14は、投映部22の光源32から光を発する。投映部22から発せられた光束は、投映面PP上に投影像PIを形成する。投映部22によって決定される投映面PPの位置は、照明光学素子24の焦点面領域FP1Aに配置される。 The processing device 14 emits light from the light source 32 of the projection unit 22. The light beam emitted from the projection unit 22 forms a projection image PI on the projection plane PP. The position of the projection plane PP determined by the projection unit 22 is located in the focal plane area FP1A of the illumination optical element 24.

図6の断面において、仮想投映像PIは、第1の仮想領域PIA1と第2の仮想領域PIA2と第3の仮想領域PIA3とを有する。第1の仮想領域PIA1は、第1の波長スペクトルを持つ第1の光線L1を主光線とする光束が投映面PPに結像されることによって形成される。また、第2の仮想領域PIA2は、第2の波長スペクトルを持つ第2の光線L2を主光線とする光束が投映面に結像されることによって形成される。また、第3の仮想領域PIA3は、第3の波長スペクトルを持つ第3の光線L3を主光線とする光束が投映面PPに結像されることによって形成される。第1の仮想領域PIA1は、光軸C1と交わる。図10において、仮想投映像PIは光軸C1に対して同心円状であるとする。このとき、第1の仮想領域PIA1と第3の仮想領域PIA3は、光軸C2に対して対称となる。ただし、仮想投映像PIはこの限りではなく、なんでもよい。 In the cross section of FIG. 6, the virtual projection image PI has a first virtual area PIA1, a second virtual area PIA2, and a third virtual area PIA3. The first virtual area PIA1 is formed by forming an image on the projection surface PP of a light beam having a first light ray L1 having a first wavelength spectrum as a principal ray. The second virtual area PIA2 is formed by forming an image on the projection surface PP of a light beam having a second light ray L2 having a second wavelength spectrum as a principal ray. The third virtual area PIA3 is formed by forming an image on the projection surface PP of a light beam having a third light ray L3 having a third wavelength spectrum as a principal ray. The first virtual area PIA1 intersects with the optical axis C1. In FIG. 10, the virtual projection image PI is assumed to be concentric with the optical axis C1. In this case, the first virtual area PIA1 and the third virtual area PIA3 are symmetrical with respect to the optical axis C2. However, the virtual projected image PI is not limited to this and can be anything.

照明焦点面領域FP1Aを通過した直後の光束の発散角α1は、その直前の光束の発散角α2に対して大きくなる。この理由の一つは、投映部22によって、投映像PIが焦点面領域FP1Aで結像されるからである。つまり、第1の発散角α1は第2の発散角α2に比べて大きくなる。これにより、照明光学素子24に到達する光束は、照明光学素子24の局所的な領域ではなく、より広い領域に渡って到達することができる。そのため、本実施形態に係る光学装置12を用いる場合、照明光学素子24から物体面OSに照射される照射野が広くなるという効果がある。 The divergence angle α1 of the light beam immediately after passing through the illumination focal plane area FP1A is larger than the divergence angle α2 of the light beam immediately before that. One reason for this is that the projection image PI is imaged on the focal plane area FP1A by the projection unit 22. In other words, the first divergence angle α1 is larger than the second divergence angle α2. This allows the light beam that reaches the illumination optical element 24 to reach a wider area rather than a localized area of the illumination optical element 24. Therefore, when the optical device 12 according to this embodiment is used, there is an effect that the irradiation field irradiated from the illumination optical element 24 to the object surface OS is wider.

さらに、本実施形態では、照明焦点面領域FP1Aに光拡散板28が配置されている。これにより、それが配置されない場合と比べ、焦点面領域FP1Aを通過する光の発散角をさらに大きくすることができる。つまり、照明光学素子24に到達する光束は、照明光学素子24の局所的な領域ではなく、より広い領域に渡って到達することができる。そのため、照明光学素子24から物体面OSに照射される照射野がさらに広くなるという効果がある。 Furthermore, in this embodiment, an optical diffuser 28 is disposed in the illumination focal plane area FP1A. This allows the divergence angle of the light passing through the focal plane area FP1A to be further increased compared to when the optical diffuser 28 is not disposed. In other words, the light flux reaching the illumination optical element 24 can reach a wider area rather than a localized area of the illumination optical element 24. This has the effect of further widening the irradiation field irradiated from the illumination optical element 24 to the object surface OS.

照明光学素子24は、照明焦点面FP1の任意の点を通過して入射する光を物体面OS上に照射する。ここで、幾何光学に基づくと(非特許文献2参照)、照明光学素子24を通過する光線は、照明焦点面FP1における通過点に応じて照明光学素子24の光軸C1に対する角度が定まる。つまり、投映面PP又は照明焦点面FP1上において同じ通過点から発する光は、照明光学素子24により全て同じ光線角度となる。これにより、第1の光線L1を主光線とする光束が投映面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第1の光線L1は、光軸C1に対する角度が第1の光線角度β1となって物体面OSに入射する。同様に、第2の光線L2を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面に照射される。第3の光線L3を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第2の光線L2、第3の光線L3は、光軸C1に対する角度が第2の光線角度β2となって物体面OSに入射する。 The illumination optical element 24 irradiates the light incident through any point on the illumination focal plane FP1 onto the object plane OS. Here, based on geometric optics (see Non-Patent Document 2), the angle of the light passing through the illumination optical element 24 with respect to the optical axis C1 of the illumination optical element 24 is determined according to the passing point on the illumination focal plane FP1. In other words, the light emitted from the same passing point on the projection plane PP or the illumination focal plane FP1 all has the same light ray angle by the illumination optical element 24. As a result, when a light beam with the first light ray L1 as the principal ray is imaged on the projection plane PP, all the light rays contained in the light beam are made into parallel light beams having the same light ray angle by the illumination optical element 24 and irradiated onto the object plane OS. As a result, the first light ray L1 is incident on the object plane OS with an angle with respect to the optical axis C1 being the first light ray angle β1. Similarly, when a light beam having the second light ray L2 as its chief ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into a parallel light beam having the same light ray angle and irradiated onto the object plane. When a light beam having the third light ray L3 as its chief ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into a parallel light beam having the same light ray angle and irradiated onto the object plane OS. As a result, the second light ray L2 and the third light ray L3 are incident on the object plane OS at an angle of the second light ray angle β2 with respect to the optical axis C1.

第1の発散角α1は、第2の発散角α2に比べて大きい。一方、第1の発散角α1を徐々に小さくしていくと、照明光学素子24から物体面OSに照射される照射野上の点のうち、その点に入射する光線角度の種類が減少する点が増えていくことになる。言い換えると、第1の発散角α1を第2の発散角α2に比べて大きくすることにより、照明光学素子24から物体面OSに照射される照射野上の点に入射する光線角度の種類を増加することができるという効果がある。特に、光拡散板28により、そのような効果を大きくすることができる。 The first divergence angle α1 is larger than the second divergence angle α2. On the other hand, if the first divergence angle α1 is gradually reduced, the number of points on the irradiation field irradiated from the illumination optical element 24 to the object surface OS at which the types of light ray angles incident on those points will decrease. In other words, by making the first divergence angle α1 larger than the second divergence angle α2, there is an effect of increasing the types of light ray angles incident on points on the irradiation field irradiated from the illumination optical element 24 to the object surface OS. In particular, the light diffuser 28 can enhance such an effect.

また、第1の波長スペクトルと第2の波長スペクトルの光は、色が異なる。これにより、光学装置12は、色ごとに光線角度の異なる光線束を物体面OSに照射できることになる。つまり、光学装置12は、色ごとに異なる入射角の光線を物体面OSに照射することができる。 In addition, the light of the first wavelength spectrum and the light of the second wavelength spectrum are different colors. This allows the optical device 12 to irradiate the object surface OS with a bundle of rays with different ray angles for each color. In other words, the optical device 12 can irradiate the object surface OS with rays with different angles of incidence for each color.

物体の表面OSのBRDFは、入射光線の入射角に応じて変化する。つまり、一つの入射角に対するBRDFよりも、2つの入射角に対する2つのBRDFのほうが、物体の表面OSに関する情報量としては多くなる。このようにBRDFに関する情報が多くなるほど、物体の表面OSの状態を詳細に推定することができる(第2実施形態(変形例含む)参照)。本実施形態に係る光学装置12は、仮想投映像PIをさまざまに変化させ、それによって物体の表面OSに対する入射角を瞬時に変化させることができる。そして、第2実施形態(変形例含む)で説明したように、その都度、例えば撮像部26によって反射光を観察することにより、物体のより詳細な表面状態を取得できるという効果がある。 The BRDF of the surface OS of an object changes depending on the angle of incidence of the incident light. In other words, two BRDFs for two angles of incidence provide more information about the surface OS of an object than a BRDF for one angle of incidence. The more information about the BRDF, the more detailed the state of the surface OS of the object can be estimated (see the second embodiment (including modifications)). The optical device 12 according to this embodiment can change the virtual projection image PI in various ways, thereby instantly changing the angle of incidence with respect to the surface OS of the object. As explained in the second embodiment (including modifications), there is an effect that a more detailed surface state of the object can be obtained by observing the reflected light each time, for example, with the imaging unit 26.

さらに、投映面PIに適宜に区画して1つの仮想領域PIA1と2つの仮想領域PIA2,PIA3にそれぞれ異なる色の投映像PIを投映し、物体の表面OSに対し、色ごとに異なる入射角の光線を入射すると、第2実施形態(変形例含む)で説明した撮像部26により、それぞれの入射角に応じた反射光を色で区別して同時に取得することができる。つまり、本実施形態に係る光学装置12により、少なくとも2つの異なる波長スペクトルの光線を、それぞれ異なる入射角の光線にすることができる。そのため、例えば撮像部26は、それぞれの入射角に応じた反射光を色で区別して同時に取得することができるという効果がある。これにより、例えば撮像部26は、より詳細なBRDF情報を取得できるという効果がある。これは特に、光学検査において、物体の表面OSの検査精度の向上に寄与する。 Furthermore, by appropriately dividing the projection surface PI into one virtual area PIA1 and two virtual areas PIA2 and PIA3, and projecting different colored projection images PI onto each of the virtual areas PIA1 and PIA2 and PIA3, and irradiating light rays with different angles of incidence for each color onto the surface OS of the object, the imaging unit 26 described in the second embodiment (including modifications) can simultaneously acquire the reflected light corresponding to each angle of incidence while distinguishing it by color. In other words, the optical device 12 according to this embodiment can convert light rays with at least two different wavelength spectra into light rays with different angles of incidence. Therefore, for example, the imaging unit 26 has the effect of being able to simultaneously acquire the reflected light corresponding to each angle of incidence while distinguishing it by color. This has the effect of allowing the imaging unit 26 to acquire more detailed BRDF information, for example. This contributes to improving the inspection accuracy of the surface OS of an object, particularly in optical inspection.

光学検査において、さまざまな物体Oの種類に応じ、物体の表面OSに照射する光線の方向を最適なものに選択する必要がある。そのために、従来は、例えばさまざまな種類のリング照明(斜入射照明)を用意する必要があった。しかし、本実施形態に係る光学装置(照明装置)12を用いると、仮想投映像PIを瞬時に変化させて光線の入射角度を変更できるという効果がある。すなわち、本実施形態に係る1つの光学装置12を用いることによって、複数の従来の照明装置を用意しなくても、種々の大きさで多種の照明を選択的に実現することができる。 In optical inspection, it is necessary to select the optimal direction of the light beam to be irradiated onto the surface OS of the object depending on the type of object O. Conventionally, this required the preparation of various types of ring illumination (oblique incidence illumination), for example. However, by using the optical device (illumination device) 12 according to this embodiment, it is possible to instantly change the virtual projection image PI to change the angle of incidence of the light beam. In other words, by using one optical device 12 according to this embodiment, it is possible to selectively realize a variety of illuminations in various sizes without the need to prepare multiple conventional illumination devices.

以上から、本実施形態に係る光学検査装置10の光学装置12によって、光線の方向(光束の方向)と波長スペクトルとを対応づけることが可能となる。波長スペクトルは、光線の色と同義と考えることができる。そのため、光線の方向と光線の色とを対応づけることが可能であるとも言える。また、投映部22によって、瞬時に仮想投映像PIを変化させることができる。そのため、本実施形態に係る光学装置12は、さまざまな用途に応じて光線の方向と光線の色との対応づけを瞬時に変更できるという効果がある。 From the above, the optical device 12 of the optical inspection device 10 according to this embodiment makes it possible to associate the direction of a light ray (direction of a light beam) with a wavelength spectrum. The wavelength spectrum can be considered synonymous with the color of a light ray. Therefore, it can also be said that it is possible to associate the direction of a light ray with the color of a light ray. In addition, the projection unit 22 can instantly change the virtual projection image PI. Therefore, the optical device 12 according to this embodiment has the effect of being able to instantly change the association between the direction of a light ray and the color of a light ray according to various applications.

(変形例1)
第3実施形態の第1変形例について、図11を用いて述べる。
(Variation 1)
A first modification of the third embodiment will be described with reference to FIG.

図11に示す本実施形態の第1変形例において、仮想投映像PIを示す。図11に示す仮想投映像PIは光軸C1に直交する。本変形例において、第1の波長スペクトルと第2の波長スペクトルは第3実施形態での説明と同じである。一方、第3の波長スペクトル、第4の波長スペクトル、第5の波長スペクトルは全て異なるものとする。例えば、第3の波長スペクトルのピークを550nmとし、第4の波長スペクトル、第5の波長スペクトルのピークをそれぞれ、500nm、600nmとする。それらの波長スペクトルの半値全幅は100nmとする。投映部22の光源32は、これらの5つの波長スペクトルの光を発する5つの光源をそれぞれ備えるとする。また、投映部22は、5つの光源32に対応して5つの空間変調器34を備える。これらの5種類の光は、投映レンズ36に入射する直前にダイクロイックミラーなどを用いて合波される。 In the first modified example of this embodiment shown in FIG. 11, a virtual projection image PI is shown. The virtual projection image PI shown in FIG. 11 is perpendicular to the optical axis C1. In this modified example, the first wavelength spectrum and the second wavelength spectrum are the same as those described in the third embodiment. On the other hand, the third wavelength spectrum, the fourth wavelength spectrum, and the fifth wavelength spectrum are all different. For example, the peak of the third wavelength spectrum is 550 nm, and the peaks of the fourth wavelength spectrum and the fifth wavelength spectrum are 500 nm and 600 nm, respectively. The full width at half maximum of these wavelength spectra is 100 nm. The light source 32 of the projection unit 22 is provided with five light sources that emit light of these five wavelength spectra. In addition, the projection unit 22 is provided with five spatial modulators 34 corresponding to the five light sources 32. These five types of light are combined using a dichroic mirror or the like just before entering the projection lens 36.

本変形例では、仮想投映像PIとして、中心が同心円状であり、外側は120°回転対称なものとする。言い換えれば、中心は軸対称であり、その外側は方位角方向に変化するものとする。仮想投映像PIは、第1の波長選択領域PI1、第1の波長選択領域PI1の外側の第2の波長選択領域PI2で同心円の中心部が構成される。仮想投映像PIは、第3の波長選択領域PI3、第4の波長選択領域PI4、第5の波長選択領域PI5でその外側の120°回転対称な領域が構成される。なお、照明光学素子24の光軸C1には、第1の波長選択領域PI1が交わる。 In this modified example, the virtual projection image PI has a concentric center and an outer side that is rotationally symmetric by 120°. In other words, the center is axially symmetric and the outer side changes in the azimuth direction. The central part of the concentric circle of the virtual projection image PI is made up of a first wavelength selection region PI1 and a second wavelength selection region PI2 outside the first wavelength selection region PI1. The outer regions of the virtual projection image PI that are rotationally symmetric by 120° are made up of a third wavelength selection region PI3, a fourth wavelength selection region PI4, and a fifth wavelength selection region PI5. The first wavelength selection region PI1 intersects with the optical axis C1 of the illumination optical element 24.

なお、隣接する領域間には、仮想的な黒色の枠がある。これは、例えば、投映面PPにおいて光を投映しないことにより形成される。このような黒色の枠は、仮想的に形成することができる。あるいは、仮想的ではなく実際に遮蔽物で形成してもよい。 Note that there is a virtual black frame between adjacent regions. This is formed, for example, by not projecting light on the projection surface PP. Such a black frame can be formed virtually. Alternatively, it may be formed by an actual obstruction rather than being virtual.

このような仮想投映像PIを用いることで、本変形例に係る光学検査装置10の光学装置12は、光線の物体面OSへの入射方向として光軸C1に対する光線の角度と光線の色とを対応づけられるだけでなく、光線の方位角方向と光線の色との対応づけも可能になるという効果がある。これにより、本変形例に係る光学検査装置10を用いて物体表面OSからの反射光を色で区別して観察することにより、光学検査装置10は、光軸C1に対する光線の角度だけでなく、方位角に関しても詳細なBRDF情報を同時に取得できるという効果がある。これにより、本変形例に係る光学検査装置10を用いることで、物体面OSの欠陥の有無の検査の精度と速度が向上するという効果がある。 By using such a virtual projection image PI, the optical device 12 of the optical inspection device 10 according to this modified example has the effect of not only being able to match the angle of the light ray relative to the optical axis C1 as the direction of incidence of the light ray on the object surface OS with the color of the light ray, but also being able to match the azimuth angle direction of the light ray with the color of the light ray. As a result, by using the optical inspection device 10 according to this modified example to observe the reflected light from the object surface OS by distinguishing it by color, the optical inspection device 10 has the effect of simultaneously obtaining detailed BRDF information not only regarding the angle of the light ray relative to the optical axis C1, but also regarding the azimuth angle. As a result, by using the optical inspection device 10 according to this modified example, the accuracy and speed of inspection for the presence or absence of defects on the object surface OS is improved.

(変形例2)
第3実施形態の第2変形例について、図12を用いて述べる。
(Variation 2)
A second modification of the third embodiment will be described with reference to FIG.

図12に示す本実施形態の第2変形例において、仮想投映像PIを示す。図12に示す仮想投映像PIは光軸C1に直交する。本変形例において、第1の波長スペクトルと第2の波長スペクトルは第3実施形態での説明と同じである。一方、第3のスペクトルはそれらと異なるものとする。例えば、第3の波長スペクトルのピークを550nmとし、波長スペクトルの半値全幅は100nmとする。投映部22の光源32は、これらの3つの波長スペクトルの光を発する3つの光源をそれぞれ備えるとする。また、投映部22は、3つの光源32に対応して3つの空間変調器34を備える。これらの3種類の光は、投映レンズ36に入射する直前にダイクロイックミラーなどを用いて合波される。 In the second modified example of this embodiment shown in FIG. 12, a virtual projection image PI is shown. The virtual projection image PI shown in FIG. 12 is perpendicular to the optical axis C1. In this modified example, the first wavelength spectrum and the second wavelength spectrum are the same as those described in the third embodiment. On the other hand, the third spectrum is different from them. For example, the peak of the third wavelength spectrum is 550 nm, and the full width at half maximum of the wavelength spectrum is 100 nm. The light source 32 of the projection unit 22 is equipped with three light sources that emit light of these three wavelength spectra. In addition, the projection unit 22 is equipped with three spatial modulators 34 corresponding to the three light sources 32. These three types of light are combined using a dichroic mirror or the like just before entering the projection lens 36.

本変形例では、仮想投映像PIは、扇状の第1の仮想領域PIA1、第2の仮想領域PIA2、第3の仮想領域PIA3を有する。そして、投映部22は、例えば処理装置14による制御により、時系列に沿って図12の左から右のように、投影面PPにおける仮想投映像PIを、同じ形状、同じ大きさを保持しながら、その傾きを変化させる。なお、照明光学素子24の光軸C1には、例えば第1の仮想領域PIA1が交わる。この仮想投映像PIは、光軸C1の軸回りに回動させているのと同じ状態である。光軸C1は、仮想投映像PIの扇状の頂点にあってもよい。 In this modified example, the virtual projection image PI has a fan-shaped first virtual area PIA1, a second virtual area PIA2, and a third virtual area PIA3. The projection unit 22, for example, under the control of the processing device 14, changes the inclination of the virtual projection image PI on the projection plane PP from left to right in FIG. 12 along a time series while maintaining the same shape and size. Note that the first virtual area PIA1, for example, intersects with the optical axis C1 of the illumination optical element 24. This virtual projection image PI is in the same state as if it were rotated around the optical axis C1. The optical axis C1 may be at the apex of the fan-shaped virtual projection image PI.

光学装置12は、このように仮想投映像PIを時系列変化させて用いることで、光線の物体面OSへの入射方向として光軸C1に対する光線の角度(光線の方向)と光線の色を対応づけられるだけでなく、光線の方位角方向を時系列変化させることができるという効果がある。これにより、撮像部26が物体表面OSからの反射光を色で区別して観察することにより、撮像部26は、異なる入射角に対するBRDF情報を同時に取得できるという効果がある。これにより、本変形例に係る光学検査装置10を用いることで、物体面OSの欠陥の有無の検査の精度と速度が向上するという効果がある。また、光学装置12は、仮想投映像PIの方位角方向を時系列変化させることにより、異なる入射方位角を持つ入射光を物体表面OSに入射することができる。そのため、異なる入射方位角に対するBRDF情報を取得できるという効果がある。つまり、より詳細なBRDF情報を取得できる。これにより、本変形例に係る光学検査装置10を用いることで、物体面OSの欠陥の有無の検査の精度が向上するという効果がある。 By using the virtual projection image PI in this way, the optical device 12 has the effect of not only being able to correspond the angle of the light ray relative to the optical axis C1 (direction of the light ray) and the color of the light ray as the incident direction of the light ray to the object surface OS, but also being able to change the azimuth angle direction of the light ray in time. As a result, the imaging unit 26 can simultaneously obtain BRDF information for different incident angles by observing the reflected light from the object surface OS by distinguishing them by color. As a result, by using the optical inspection device 10 according to this modified example, the accuracy and speed of inspection for the presence or absence of defects on the object surface OS can be improved. In addition, the optical device 12 can make incident light with different incident azimuth angles incident on the object surface OS by changing the azimuth angle direction of the virtual projection image PI in time. Therefore, there is an effect that BRDF information for different incident azimuth angles can be obtained. In other words, more detailed BRDF information can be obtained. As a result, using the optical inspection device 10 according to this modified example has the effect of improving the accuracy of inspection for the presence or absence of defects on the object surface OS.

(第4実施形態)
図13には、第4実施形態に係る光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投影像PIの模式的な断面図を示す。本実施形態は、変形例を含む第1実施形態、変形例を含む第2実施形態、及び、変形例を含む第3実施形態で説明した光学検査装置10の変形例であって、変形例を含む第1実施形態、変形例を含む第2実施形態、及び、変形例を含む第3実施形態で説明した部材と同一の部材又は同一の機能を有する部材には同一の符号を付し、説明を省略する。
Fourth Embodiment
13 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to the fourth embodiment, and the virtual projected image PI formed by the optical device 12. This embodiment is a modification of the optical inspection device 10 described in the first embodiment including a modification, the second embodiment including a modification, and the third embodiment including a modification, and the same members or members having the same functions as the members described in the first embodiment including a modification, the second embodiment including a modification, and the third embodiment including a modification are given the same reference numerals, and description thereof will be omitted.

本実施形態に係る光学装置12は、投映部22と、照明光学素子24とを有する。投映部22は、仮想投映像PIを瞬時に変更(変化)することができる。本実施形態においては、投映部22の光源32は、第1の波長(例えば青光)と第2の波長(例えば赤光)の発光を電気的に瞬時に切り替えることができる複数のLED(Light-Emitting Diode)で構成される発光ユニット33を用いるものとする。ただし、光源32は、この限りではなく、種々のものを用いることができる。 The optical device 12 according to this embodiment has a projection unit 22 and an illumination optical element 24. The projection unit 22 can instantly change (alter) the virtual projection image PI. In this embodiment, the light source 32 of the projection unit 22 uses a light-emitting unit 33 composed of multiple LEDs (Light-Emitting Diodes) that can instantly electrically switch between emitting light of a first wavelength (e.g., blue light) and a second wavelength (e.g., red light). However, the light source 32 is not limited to this, and various light sources can be used.

投映部22の光源32は、複数のLED発光ユニット33を有する。各発光ユニット33はそれぞれ異なる2つの波長スペクトルの光を同時に、又は、選択的に発することができる。これらそれぞれ異なる2つの波長スペクトルをそれぞれ、第1の波長スペクトル、第2の波長スペクトルとする。例えば、第1の波長スペクトルは、波長450nmをピークにし、半値全幅が100nmである青光とする。また、第2の波長スペクトルは、波長650nmをピークにし、半値全幅が100nmである赤光とする。 The light source 32 of the projection unit 22 has multiple LED light-emitting units 33. Each light-emitting unit 33 can emit light of two different wavelength spectra simultaneously or selectively. These two different wavelength spectra are called the first wavelength spectrum and the second wavelength spectrum, respectively. For example, the first wavelength spectrum is blue light with a peak at a wavelength of 450 nm and a full width at half maximum of 100 nm. The second wavelength spectrum is red light with a peak at a wavelength of 650 nm and a full width at half maximum of 100 nm.

照明光学素子24は、本実施形態において、複数のレンズからなる組レンズとする。ただし、図13においては、便宜上、組レンズを一枚のレンズで模式的に描いている。 In this embodiment, the illumination optical element 24 is a lens assembly made up of multiple lenses. However, for convenience, in FIG. 13, the lens assembly is depicted as a single lens.

光源32の発光面は、照明光学素子24の照明焦点面FP1又は照明焦点面領域FP1Aに配置される。本実施形態において、投映面PPは光源32の発光面と一致する。 The light emitting surface of the light source 32 is disposed in the illumination focal plane FP1 or illumination focal plane area FP1A of the illumination optical element 24. In this embodiment, the projection plane PP coincides with the light emitting surface of the light source 32.

投映部22から発せられた光束は、即座に、照明光学素子24の照明焦点面領域FP1Aを通過し、照明光学素子24を通過して物体面OSへと照射される。照明焦点面FP1を通過直後の光束の発散角を第1の発散角α1とし、照明焦点面FP1に入射する前の光束の発散角を第2の発散角α2とする。ただし、ここでは、光源32の発光面が照明焦点面FP1に配置されるため、照明焦点面FP1に入射する前の光束は存在しない。そのため、第2の発散角α2は0とする。 The light beam emitted from the projection unit 22 immediately passes through the illumination focal plane area FP1A of the illumination optical element 24, and is irradiated onto the object plane OS through the illumination optical element 24. The divergence angle of the light beam immediately after passing through the illumination focal plane FP1 is set to the first divergence angle α1, and the divergence angle of the light beam before entering the illumination focal plane FP1 is set to the second divergence angle α2. However, since the light emitting surface of the light source 32 is disposed on the illumination focal plane FP1, there is no light beam before entering the illumination focal plane FP1. Therefore, the second divergence angle α2 is set to 0.

次に、本実施形態に係る光学検査装置10の動作について述べる。 Next, the operation of the optical inspection device 10 according to this embodiment will be described.

投映部22から発せられた光束は、投映面PP上に投映像PIを形成する。投映部22によって決定される投映面PPの位置は、照明光学素子24の焦点面領域FP1Aに配置される。 The light beam emitted from the projection unit 22 forms a projected image PI on the projection surface PP. The position of the projection surface PP determined by the projection unit 22 is located in the focal plane area FP1A of the illumination optical element 24.

図13の断面において、投映像PIは、第1の仮想領域PIA1と第2の仮想領域PIA2と第3の仮想領域PIA3とを有する。図13において、投映像PIは光軸C1に対して同心円状であるとする。このとき、第1の仮想領域PIA1と第3の仮想領域PIA3は、光軸C1に対して対称となる。 In the cross section of FIG. 13, the projected image PI has a first virtual area PIA1, a second virtual area PIA2, and a third virtual area PIA3. In FIG. 13, the projected image PI is concentric with respect to the optical axis C1. In this case, the first virtual area PIA1 and the third virtual area PIA3 are symmetrical with respect to the optical axis C1.

焦点面領域FP1Aを通過した直後の光束の発散角α1は、その直前の光束の発散角α2(図13中には図示せず、図1、図7及び図10参照)に対して大きくなる。これにより、照明光学素子24に到達する光束は、照明光学素子24の局所的な領域ではなく、より広い領域に渡って到達することができる。そのため、本実施形態に係る光学装置12を用いる場合、照明光学素子24から物体面OSに照射される照射野が広くなるという効果がある。 The divergence angle α1 of the light beam immediately after passing through the focal plane area FP1A is larger than the divergence angle α2 of the light beam immediately before that (not shown in FIG. 13, see FIGS. 1, 7, and 10). This allows the light beam that reaches the illumination optical element 24 to reach a wider area rather than a localized area of the illumination optical element 24. Therefore, when the optical device 12 according to this embodiment is used, there is an effect that the irradiation field irradiated from the illumination optical element 24 to the object surface OS is wider.

照明光学素子24は、照明焦点面FP1の任意の点を通過して入射する光を物体面OS上に照射する。ここで、幾何光学に基づくと(非特許文献2参照)、照明光学素子24を通過する光線は、照明焦点面FP1における通過点に応じて照明光学素子24の光軸C1に対する角度が定まる。つまり、投影面PP又は照明焦点面FP1上において同じ通過点から発する光は、照明光学素子24により全て同じ光線角度となる。これにより、第1の光線L1を主光線とする光束が投映面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第1の光線L1は、光軸C1に対する角度が第1の光線角度β1となって物体面OSに入射する。同様に、第2の光線L2を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。第3の光線L3を主光線とする光束が投影面PPに結像されると、その光束に含まれる光線は全て、照明光学素子24によって同じ光線角度を持つ平行光束となって物体面OSに照射される。これにより、第2の光線L2、第3の光線L3は、光軸C1に対する角度が第2の光線角度β2となって物体面OSに入射する。 The illumination optical element 24 irradiates the light incident through any point on the illumination focal plane FP1 onto the object plane OS. Here, based on geometric optics (see Non-Patent Document 2), the angle of the light passing through the illumination optical element 24 with respect to the optical axis C1 of the illumination optical element 24 is determined according to the passing point on the illumination focal plane FP1. In other words, the light emitted from the same passing point on the projection plane PP or the illumination focal plane FP1 all has the same light ray angle by the illumination optical element 24. As a result, when a light beam with the first light ray L1 as the principal ray is imaged on the projection plane PP, all the light rays contained in the light beam are made into a parallel light beam having the same light ray angle by the illumination optical element 24 and irradiated onto the object plane OS. As a result, the first light ray L1 is incident on the object plane OS with an angle with respect to the optical axis C1 being the first light ray angle β1. Similarly, when a light beam having the second light ray L2 as its chief ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams having the same light ray angle and irradiated onto the object plane OS. When a light beam having the third light ray L3 as its chief ray is imaged on the projection plane PP, all of the light rays contained in the light beam are converted by the illumination optical element 24 into parallel light beams having the same light ray angle and irradiated onto the object plane OS. As a result, the second light ray L2 and the third light ray L3 are incident on the object plane OS at an angle of the second light ray angle β2 with respect to the optical axis C1.

物体の表面OSのBRDFは、入射光線の入射角に応じて変化する。つまり、一つの入射角に対するBRDFよりも、2つの入射角に対する2つのBRDFのほうが、物体の表面OSに関する情報量としては多くなる。このようにBRDFに関する情報が多くなるほど、物体の表面OSの状態を詳細に推定することができる(第2実施形態(変形例含む)参照)。そのため、本実施形態に係る光学装置12によって投映像PIをさまざまに変化させ、それによって物体の表面OSに対する入射角を瞬時に変化させることができる。そして、第2実施形態(変形例含む)で説明したように、その都度、例えば撮像部26によって反射光を観察することにより、物体のより詳細な表面状態を取得できるという効果がある。 The BRDF of the surface OS of an object changes depending on the angle of incidence of the incident light. In other words, two BRDFs for two angles of incidence provide more information about the surface OS of an object than a BRDF for one angle of incidence. The more information about the BRDF, the more detailed the state of the surface OS of the object can be estimated (see the second embodiment (including modifications)). Therefore, the optical device 12 according to this embodiment can change the projected image PI in various ways, thereby instantaneously changing the angle of incidence with respect to the surface OS of the object. As explained in the second embodiment (including modifications), the reflected light can be observed each time, for example, by the imaging unit 26, which has the effect of allowing more detailed surface conditions of the object to be obtained.

さらに、例えば撮像部26は、投映面PIに適宜に区画して1つの仮想領域PIA1と2つの仮想領域PIA2,PIA3にそれぞれ異なる色の投映像PIを投映し、物体の表面OSに対し、色ごとに異なる入射角の光線を入射すると、第2実施形態(変形例含む)で説明した撮像部26により、それぞれの入射角に応じた反射光を色で区別して同時に取得することができる。つまり、本実施形態に係る光学装置12により、少なくとも2つの異なる波長スペクトルの光線を、それぞれ異なる入射角の光線にすることができる。そのため、例えば撮像部26は、それぞれの入射角に応じた反射光を色で区別して同時に取得することができるという効果がある。これにより、例えば撮像部26は、より詳細なBRDF情報を取得できるという効果がある。これは特に、光学検査において、物体の表面OSの検査精度の向上に寄与する。 Furthermore, for example, the imaging unit 26 appropriately divides the projection surface PI into one virtual area PIA1 and two virtual areas PIA2 and PIA3, and projects projection images PI of different colors onto each of the virtual areas PIA1 and PIA2 and PIA3. When light rays with different angles of incidence for each color are incident on the surface OS of the object, the imaging unit 26 described in the second embodiment (including the modified example) can distinguish the reflected light according to each angle of incidence by color and simultaneously acquire it. In other words, the optical device 12 according to this embodiment can make light rays with at least two different wavelength spectra into light rays with different angles of incidence. Therefore, for example, the imaging unit 26 has the effect of distinguishing the reflected light according to each angle of incidence by color and simultaneously acquiring it. This has the effect of, for example, allowing the imaging unit 26 to acquire more detailed BRDF information. This particularly contributes to improving the inspection accuracy of the surface OS of the object in optical inspection.

光学検査において、さまざまな物体Oの種類に応じ、物体の表面OSに照射する光線の方向を最適なものに選択する必要がある。そのために、従来は、例えばさまざまな種類のリング照明(斜入射照明)を用意する必要があった。しかし、本実施形態に係る光学装置(照明装置)12を用いると、投映像PIを瞬時に変化させて光線の入射角度を変更できるという効果がある。すなわち、本実施形態に係る1つの光学装置12を用いることによって、複数の従来の照明装置を用意することなく、種々の大きさで多種の照明を選択的に用いることができる。 In optical inspection, it is necessary to select the optimal direction of the light beam to be irradiated onto the surface OS of the object depending on the type of object O. Conventionally, this required the preparation of various types of ring illumination (oblique incidence illumination), for example. However, by using the optical device (illumination device) 12 according to this embodiment, it is possible to instantly change the projected image PI to change the angle of incidence of the light beam. In other words, by using one optical device 12 according to this embodiment, it is possible to selectively use a variety of illuminations in various sizes without having to prepare multiple conventional illumination devices.

以上から、本実施形態に係る光学検査装置10の光学装置12によって、光線の方向と波長スペクトルを対応づけることが可能となる。波長スペクトルは、光線の色と同義と考えることができる。そのため、光線の方向と色を対応づけることが可能であるとも言える。また、投映部22によって、瞬時に投映像PIを変化させることができる。そのため、本実施形態に係る光学装置12は、さまざまな用途に応じて光線の方向と色の対応づけを瞬時に変更できるという効果がある。 From the above, the optical device 12 of the optical inspection device 10 according to this embodiment makes it possible to associate the direction of light rays with a wavelength spectrum. The wavelength spectrum can be considered synonymous with the color of light rays. Therefore, it can also be said that it is possible to associate the direction of light rays with a color. In addition, the projection unit 22 can instantly change the projected image PI. Therefore, the optical device 12 according to this embodiment has the effect of being able to instantly change the correspondence between the direction of light rays and colors according to various applications.

(変形例)
図14に、第4実施形態の変形例に係る光学検査装置10の光学装置12の模式的な断面図を示す。
(Modification)
FIG. 14 shows a schematic cross-sectional view of the optical device 12 of the optical inspection device 10 according to a modified example of the fourth embodiment.

本変形例に係る光学装置12は、光源32として、異なる波長スペクトルを持つ第1の光源32aおよび第2の光源32bを示す。第1の光源32aは、複数の第1の発光ユニット33aを有する。第2の光源32bは、複数の第2の発光ユニット33bを有する。第1の発光ユニット33aは、それぞれ、第1の波長スペクトルの光を同時に、又は、選択的に発光する。第2の発光ユニット33bは、それぞれ、第2の波長スペクトルの光を発光する。第1の光源32aおよび第2の光源32bからの光はダイクロイックミラー38によって合波される。ダイクロイックミラー38は、偏光ビームスプリッターや無偏光ビームスプリッターでもよい。ダイクロイックミラー38は、これに限らず、2つの光を合光できるものならばなんでもよい。ダイクロイックミラー38として偏光ビームスプリッターを用いる場合、撮像部26の撮像素子56に偏光方向を感知できる偏光カメラを用いれば、偏光情報も色情報と同様に利用することで、物点における光の方向分布に関する情報を多く取得することができる。2つの光源32a,32bを用いることにより、合波後に2つの離間したピークを持つ波長スペクトルを新たに生成することができる。これにより、例えば、第1の波長スペクトルと第2の波長スペクトルを大きく異ならせることができ、色を正確に区別して光の方向分布に関する情報をより正確かつ迅速に取得することができる。あるいは、2つの光源32a,32bの光強度を独立に適切に調整することもできる。 The optical device 12 according to this modification shows a first light source 32a and a second light source 32b having different wavelength spectra as the light source 32. The first light source 32a has a plurality of first light-emitting units 33a. The second light source 32b has a plurality of second light-emitting units 33b. The first light-emitting units 33a each emit light of a first wavelength spectrum simultaneously or selectively. The second light-emitting units 33b each emit light of a second wavelength spectrum. The light from the first light source 32a and the second light source 32b is combined by a dichroic mirror 38. The dichroic mirror 38 may be a polarizing beam splitter or a non-polarizing beam splitter. The dichroic mirror 38 is not limited to this, and may be anything that can combine two lights. When a polarizing beam splitter is used as the dichroic mirror 38, if a polarizing camera capable of sensing the polarization direction is used for the image sensor 56 of the image capture unit 26, the polarization information can be used in the same way as the color information, and a lot of information about the directional distribution of light at the object point can be obtained. By using two light sources 32a and 32b, a new wavelength spectrum having two separated peaks can be generated after combining. This allows, for example, the first wavelength spectrum and the second wavelength spectrum to be significantly different, and the colors can be accurately distinguished to obtain information about the directional distribution of light more accurately and quickly. Alternatively, the light intensity of the two light sources 32a and 32b can be adjusted independently and appropriately.

以上から、本変形例に係る光学検査装置10の光学装置12によって、光線の方向と波長スペクトルを対応づけることが可能となる。また、投映部22によって、瞬時に投映像PIを変化させることができる。そのため、本変形例に係る光学装置12は、さまざまな用途に応じて光線の方向と色の対応づけを瞬時に変更できるという効果がある。 As described above, the optical device 12 of the optical inspection device 10 according to this modified example makes it possible to associate the direction of light rays with the wavelength spectrum. In addition, the projection unit 22 can instantly change the projected image PI. Therefore, the optical device 12 according to this modified example has the effect of being able to instantly change the correspondence between the direction of light rays and colors according to various applications.

(第5実施形態)
以下、第5実施形態に係る光学装置12について、図15を参照して説明する。
Fifth Embodiment
Hereinafter, an optical device 12 according to the fifth embodiment will be described with reference to FIG.

図15には、本実施形態に係る光学検査装置10の光学装置12、及び、光学装置12で形成する仮想投影像PIの模式的な斜視図を示す。本実施形態は、投映部22と、照明光学素子24と、撮像部26とを備える。ただし、図15では、光学装置12の投映部22の図示を省略する。投映部22は、第1実施形態から第4実施形態で説明した種々のものを用いることができる。光学装置12の基本構成は第1実施形態から第4実施形態で説明した光学装置12と同じである。以下は差分について述べる。 Figure 15 shows a schematic perspective view of the optical device 12 of the optical inspection device 10 according to this embodiment, and the virtual projection image PI formed by the optical device 12. This embodiment includes a projection unit 22, an illumination optical element 24, and an imaging unit 26. However, in Figure 15, the projection unit 22 of the optical device 12 is not shown. The projection unit 22 can be any of the various projection units described in the first to fourth embodiments. The basic configuration of the optical device 12 is the same as that of the optical device 12 described in the first to fourth embodiments. The differences will be described below.

図15中の第1の断面S1は、照明光軸C1と撮像光軸C2とを含む。第2の断面S2は、第1の断面S1に直交する。 The first cross section S1 in FIG. 15 includes the illumination optical axis C1 and the imaging optical axis C2. The second cross section S2 is perpendicular to the first cross section S1.

照明光学素子24は、第1の断面S1に直交する方向に並進対称性を持つ。この方向を照明光学素子24の長手方向とする。照明光学素子24は、例えば、シリンドリカルレンズとする。シリンドリカルレンズの照明光軸C1は、第1の断面S1上である。 The illumination optical element 24 has translational symmetry in a direction perpendicular to the first cross section S1. This direction is the longitudinal direction of the illumination optical element 24. The illumination optical element 24 is, for example, a cylindrical lens. The illumination optical axis C1 of the cylindrical lens is on the first cross section S1.

投映部22は、光源32からの光束Bを用い、照明光学素子24の焦点面領域FP1Aに仮想投映像PIを投映する。例えば、仮想投映像PIは、第1の仮想領域PIA1、第2の仮想領域PIA2、及び、第1の仮想領域PIA3を有するとする。仮想投映像PI上において、仮想投映像PIが変化する方向に沿う方向を配列方向とする。この配列方向は、第1の断面S1と平行になる。つまり、仮想投映像PIの配列方向は、ラインセンサー56の長手方向と直交する。そして、第1の仮想領域PIA1が光軸C1に交わるとする。これによって、物体表面OSが照明され、照射野Fが形成される。第2の断面S2にこの照明光を投射すると、発散光となる。ただし、この限りではなく、仮想投映像PIはどのように変化するものでもよい。 The projection unit 22 uses the light beam B from the light source 32 to project the virtual projection image PI onto the focal plane area FP1A of the illumination optical element 24. For example, the virtual projection image PI has a first virtual area PIA1, a second virtual area PIA2, and a first virtual area PIA3. The direction along the direction in which the virtual projection image PI changes on the virtual projection image PI is the arrangement direction. This arrangement direction is parallel to the first cross section S1. In other words, the arrangement direction of the virtual projection image PI is perpendicular to the longitudinal direction of the line sensor 56. Then, the first virtual area PIA1 is assumed to intersect with the optical axis C1. This illuminates the object surface OS, and an irradiation field F is formed. When this illumination light is projected onto the second cross section S2, it becomes divergent light. However, this is not limited to this, and the virtual projection image PI may change in any way.

なお、投映部22からの光束Bによる投映像PIは瞬時に変更可能であるが、一例として、第1の仮想領域PIA1に投映した第1の波長の光は、後述する波長選択部55の第1の波長選択領域55aで遮蔽され、第2の波長選択領域55b、第3の波長選択領域55cを通過するものとする。第2の仮想領域PIA2に投映した第2の波長の光は、後述する波長選択部55の第1の波長選択領域55aを通過し、第2の波長選択領域55bで遮蔽され、第3の波長選択領域55cを通過するものとする。第3の仮想領域PIA3に投映した第3の波長の光は、後述する波長選択部55の第1の波長選択領域55a、第2の波長選択領域55bを通過し、第3の波長選択領域55cで遮蔽されるものとする。 The projected image PI by the light beam B from the projection unit 22 can be changed instantly. As an example, the light of the first wavelength projected on the first virtual area PIA1 is blocked by the first wavelength selection area 55a of the wavelength selection unit 55 described later, and passes through the second wavelength selection area 55b and the third wavelength selection area 55c. The light of the second wavelength projected on the second virtual area PIA2 passes through the first wavelength selection area 55a of the wavelength selection unit 55 described later, is blocked by the second wavelength selection area 55b, and passes through the third wavelength selection area 55c. The light of the third wavelength projected on the third virtual area PIA3 passes through the first wavelength selection area 55a and the second wavelength selection area 55b of the wavelength selection unit 55 described later, and is blocked by the third wavelength selection area 55c.

撮像部26は、撮像光学素子52と、撮像開口54と、撮像素子56とを有する。撮像光学素子52の光軸C2は、撮像開口54の後述する波長選択部55に交差する。撮像素子56はイメージセンサーであり、本実施形態ではラインセンサーとする。ラインセンサー56の長手方向は、照明光学素子24の長手方向と一致する。 The imaging section 26 has an imaging optical element 52, an imaging aperture 54, and an imaging element 56. The optical axis C2 of the imaging optical element 52 intersects with a wavelength selection section 55 (described later) of the imaging aperture 54. The imaging element 56 is an image sensor, and in this embodiment is a line sensor. The longitudinal direction of the line sensor 56 coincides with the longitudinal direction of the illumination optical element 24.

撮像開口54は、第1実施形態(図7)で説明した貫通孔54aの代わりに、波長選択部55を有する。図15中、撮像開口54の媒質54bの図示を省略する。本実施形態では、貫通孔54aは、ラインセンサー56の長手方向に長い矩形状に形成されていることが好適である。撮像開口54の波長選択部55は、第1の断面S1に直交する方向に並進対称性を持つ。この方向を波長選択部55の長手方向とする。波長選択部55は、ストライプ状に配列された複数の領域55a,55b,55cを有する。波長選択部55上において、波長選択部55が変化する方向に沿う方向を配列方向とする。この配列方向は、第1の断面S1と平行になる。つまり、波長選択部55の配列方向は、ラインセンサー56の長手方向と直交する。 The imaging aperture 54 has a wavelength selection section 55 instead of the through hole 54a described in the first embodiment (FIG. 7). In FIG. 15, the medium 54b of the imaging aperture 54 is omitted. In this embodiment, the through hole 54a is preferably formed in a rectangular shape that is long in the longitudinal direction of the line sensor 56. The wavelength selection section 55 of the imaging aperture 54 has translational symmetry in a direction perpendicular to the first cross section S1. This direction is the longitudinal direction of the wavelength selection section 55. The wavelength selection section 55 has a plurality of regions 55a, 55b, and 55c arranged in a stripe pattern. On the wavelength selection section 55, the direction along the direction in which the wavelength selection section 55 changes is the arrangement direction. This arrangement direction is parallel to the first cross section S1. In other words, the arrangement direction of the wavelength selection section 55 is perpendicular to the longitudinal direction of the line sensor 56.

なお、撮像開口54は、第1実施形態(図7)で説明した撮像開口54と同様に、波長選択部55の外側が媒質54bとしてラインセンサー56への遮光部として形成されていることが好適である。 As with the imaging aperture 54 described in the first embodiment (Figure 7), it is preferable that the outside of the wavelength selection section 55 is formed as a medium 54b that blocks light from the line sensor 56.

物体Oはラインセンサー56の長手方向と直交する矢印FDで示す方向に搬送される。ラインセンサー56は、このように搬送される物体Oを連続して撮像することにより、2次元の画像を取得することができる。 The object O is transported in the direction indicated by the arrow FD, which is perpendicular to the longitudinal direction of the line sensor 56. The line sensor 56 can obtain a two-dimensional image by continuously capturing images of the object O being transported in this manner.

投映部22(第1実施形態から第4実施形態参照)から射出された光束は、仮想投映像(照明側波長選択部)PIを通過して物体表面OSを照射し、物体表面OSに照射野Fを形成する。 The light beam emitted from the projection unit 22 (see the first to fourth embodiments) passes through the virtual projection image (illumination side wavelength selection unit) PI and illuminates the object surface OS, forming an illumination field F on the object surface OS.

物体表面OS上の第1の物点O1に微小欠陥がある場合、BRDFは広がりを持ち、一部の光線は撮像開口54の波長選択部55の各領域55a,55b,55cを選択的に通過して第1の物点O1をラインセンサー56上に結像する。 When there is a minute defect at the first object point O1 on the object surface OS, the BRDF spreads, and some of the light rays selectively pass through the areas 55a, 55b, and 55c of the wavelength selection section 55 of the imaging aperture 54 to form an image of the first object point O1 on the line sensor 56.

一方、第1の物点O1が標準面上にある場合、第1の波長を持つ第1の光線L1は標準面で正反射される。このとき、仮想投映像PIを適切に形成することにより、第1の光線L1を撮像部26の撮像開口54の中心に到達させることができる。つまり、撮像光軸C2を含む領域に第1の光線L1を到達させることができる。撮像開口54の中心に配置される波長選択部55の第1の波長選択領域55aは、第1の波長の光を遮蔽するように作成される。これにより、第1の物点O1に微小欠陥が存在しない場合、第1の物点O1は第1の波長の光で撮像されない。一方、第1の物点O1に微小欠陥が存在する場合、第1の物点O1は第1の波長の光で撮像される。これにより、本実施形態に係る光学検査装置10を用いて、微小欠陥の有無を識別することができるという効果がある。また、本実施形態に係る光学検査装置10を用いて、物点における光の方向分布(つまり、BRDF)の広がりに関する情報が得られる。 On the other hand, when the first object point O1 is on the standard surface, the first light ray L1 having the first wavelength is specularly reflected by the standard surface. At this time, by appropriately forming the virtual projection image PI, the first light ray L1 can be made to reach the center of the imaging aperture 54 of the imaging unit 26. That is, the first light ray L1 can be made to reach the area including the imaging optical axis C2. The first wavelength selection area 55a of the wavelength selection unit 55 arranged at the center of the imaging aperture 54 is created so as to block the light of the first wavelength. As a result, if there is no micro defect in the first object point O1, the first object point O1 is not imaged with the light of the first wavelength. On the other hand, if there is a micro defect in the first object point O1, the first object point O1 is imaged with the light of the first wavelength. This has the effect of being able to identify the presence or absence of a micro defect using the optical inspection device 10 according to this embodiment. In addition, information regarding the spread of the directional distribution of light (i.e., BRDF) at the object point can be obtained using the optical inspection device 10 according to this embodiment.

また、第1の物点O1が標準面上にある場合、第1の波長と異なる第2の波長を持つ第2の光線L2も同様に標準面で正反射される。撮像開口54の中心に配置される波長選択部55の第1の波長選択領域55bは、第2の波長の光を遮蔽するように作成される。これにより、第1の物点O1に微小欠陥が存在しない場合、第1の物点O1は第2の波長の光で撮像されない。一方、第1の物点O1に微小欠陥が存在する場合、第1の物点O1は第2の波長の光で撮像される。ただし、第1の物点O1が標準面上にある場合でも、投影部22によって仮想投影像PIを瞬時に変化させ、仮想投映像PIを適切に形成することにより、第2の光線L2の反射方向を撮像光軸C2と一致させることができる。これにより、第2波長の光線は、撮像部26の撮像開口54の中心に到達する。つまり、撮像開口54上の、撮像光軸C2を含む領域に到達する。撮像開口54の中心に配置される波長選択部55の第1の波長選択領域55aは、第2の波長の光を透過し、ラインセンサー56で撮像されるように作成される。このとき、幾何光学に基づくと、第2の波長に対し、撮像部26は物体側にテレセントリック性を有することになる。つまり、本実施形態に係る光学装置12は、光源32からの光のうち、少なくとも一つの波長の光に対して物体側テレセントリック性を有することになる。これにより、本実施形態に係る光学検査装置10の光学装置12は、第2の波長によって、明視野のテレセントリック画像が取得できるという効果がある。つまり、本実施形態に係る光学検査装置10の光学装置12は、第1の光線を用いた撮像画像と合わせて、物体表面の詳細な情報を取得できる。 In addition, when the first object point O1 is on the standard surface, the second light ray L2 having a second wavelength different from the first wavelength is also regularly reflected by the standard surface. The first wavelength selection area 55b of the wavelength selection unit 55 arranged at the center of the imaging aperture 54 is created to block the light of the second wavelength. As a result, when the first object point O1 does not have a micro defect, the first object point O1 is not imaged with the light of the second wavelength. On the other hand, when the first object point O1 has a micro defect, the first object point O1 is imaged with the light of the second wavelength. However, even when the first object point O1 is on the standard surface, the reflection direction of the second light ray L2 can be made to coincide with the imaging optical axis C2 by instantly changing the virtual projection image PI by the projection unit 22 and appropriately forming the virtual projection image PI. As a result, the light ray of the second wavelength reaches the center of the imaging aperture 54 of the imaging unit 26. That is, it reaches the area on the imaging aperture 54 that includes the imaging optical axis C2. The first wavelength selection region 55a of the wavelength selection unit 55 arranged at the center of the imaging aperture 54 is created to transmit light of the second wavelength and be imaged by the line sensor 56. At this time, based on geometric optics, the imaging unit 26 has telecentricity on the object side for the second wavelength. In other words, the optical device 12 according to this embodiment has object-side telecentricity for at least one wavelength of light from the light source 32. As a result, the optical device 12 of the optical inspection device 10 according to this embodiment has the effect of being able to acquire a bright field telecentric image using the second wavelength. In other words, the optical device 12 of the optical inspection device 10 according to this embodiment can acquire detailed information of the object surface in addition to the image captured using the first light ray.

なお、第3の波長は、第2の波長と同様に、第1の物点O1が標準面上にある場合、標準面で正反射される。撮像開口54の中心に配置される波長選択部55の第1の波長選択領域55cは、第3の波長の光を遮蔽するように作成される。これにより、第1の物点O1に微小欠陥が存在しない場合、第1の物点O1は第3の波長の光で撮像されない。一方、第1の物点O1に微小欠陥が存在する場合、第1の物点O1は第3の波長の光で撮像される。ただし、第1の物点O1が標準面上にある場合でも、投影部22によって仮想投影像PIを瞬時に変化させ、仮想投映像PIを適切に形成することにより、第3の光線は第1の波長選択領域55aを透過し、ラインセンサー56で撮像される。このとき、幾何光学に基づくと、第3の波長に対し、撮像部26は物体側にテレセントリック性を有することになる。つまり、本実施形態に係る光学装置12は、光源32からの光のうち、少なくとも一つの波長の光に対して物体側テレセントリック性を有することになる。 The third wavelength, like the second wavelength, is specularly reflected by the standard surface when the first object point O1 is on the standard surface. The first wavelength selection area 55c of the wavelength selection unit 55 arranged at the center of the imaging aperture 54 is created to block the light of the third wavelength. As a result, if there is no micro defect in the first object point O1, the first object point O1 is not imaged with the light of the third wavelength. On the other hand, if there is a micro defect in the first object point O1, the first object point O1 is imaged with the light of the third wavelength. However, even if the first object point O1 is on the standard surface, the third light ray passes through the first wavelength selection area 55a and is imaged by the line sensor 56 by instantly changing the virtual projection image PI by the projection unit 22 and appropriately forming the virtual projection image PI. At this time, based on geometric optics, the imaging unit 26 has telecentricity on the object side for the third wavelength. In other words, the optical device 12 according to this embodiment has object-side telecentricity for at least one wavelength of light from the light source 32.

第1の断面S1に光線を投射したものを考える。このとき、図15に示すように第1の物点O1のBRDFの分布が広がることによって、標準面の場合には到達しなかった波長選択部55に到達し、それを通過する光が生じる。ここで、反射光の方向に応じ、反射光は撮像開口54における波長選択部55の異なる領域55b,55cに到達することがわかる。ただし、撮像開口54の範囲外に到達する光線は撮像されない。つまり、撮像可能な光線方向の範囲は、撮像開口54によって制限される。 Consider a ray of light projected onto the first cross section S1. In this case, as shown in FIG. 15, the distribution of the BRDF of the first object point O1 spreads, resulting in light reaching and passing through the wavelength selection section 55 that would not have been reached in the case of the standard surface. Here, it can be seen that depending on the direction of the reflected light, the reflected light reaches different regions 55b, 55c of the wavelength selection section 55 in the imaging aperture 54. However, light rays that reach outside the range of the imaging aperture 54 are not imaged. In other words, the range of light directions that can be imaged is limited by the imaging aperture 54.

一方、第2の断面S2に光線を投影したものを考える。このとき、投映部22からの光は拡散光であるので撮像部26での画角は、拡散光の発散角に応じて広くなることがわかる。そして、波長選択部55がストライプ状であるため、光線の色は画角によらないことがわかる。また、ストライプの長手方向を十分に長くすることにより、ラインセンサー56の長手方向の画角を広く有効に使用できるという効果がある。また、波長選択部55を撮像光学素子52及び撮像素子56の前面に配置する構成により、どのような撮像光学素子52及び撮像素子56の組み合わせに対しても本光学系を容易に組むことができる。 On the other hand, consider a light ray projected onto the second cross section S2. In this case, since the light from the projection unit 22 is diffuse light, it can be seen that the angle of view at the imaging unit 26 becomes wider according to the divergence angle of the diffuse light. And since the wavelength selection unit 55 is striped, it can be seen that the color of the light does not depend on the angle of view. Also, by making the longitudinal direction of the stripe sufficiently long, it is possible to achieve the effect of widely and effectively using the longitudinal angle of view of the line sensor 56. Also, by arranging the wavelength selection unit 55 in front of the imaging optical element 52 and the imaging element 56, this optical system can be easily assembled for any combination of imaging optical element 52 and imaging element 56.

本実施形態に係る光学検査装置10により、物点O1における光の方向分布の広がりに関する情報が得られる。また、本実施形態に係る光学検査装置10の光学装置12の撮像視野は、ラインセンサー56の長手方向を長くするほど広くできるという効果がある。これにより、本実施形態に係る光学検査装置10は、物体表面OSの性状あるいは形状の検査が可能となる。 The optical inspection device 10 according to this embodiment provides information regarding the spread of the directional distribution of light at the object point O1. In addition, the optical device 12 of the optical inspection device 10 according to this embodiment has the advantage that the imaging field of view can be made wider as the longitudinal direction of the line sensor 56 is made longer. This makes it possible for the optical inspection device 10 according to this embodiment to inspect the properties or shape of the object surface OS.

以上から、本実施形態に係る光学検査装置10の光学装置12によって、光線の方向(光束の方向)と波長スペクトルとを対応づけることが可能となる。また、光学装置12の投映部22によって、瞬時に仮想投映像PIを変化させることができる。例えば、投映面PPにおいて、各領域PIA1,PIA2,PIA3を適宜の方向に伸縮させることができる。そのため、本実施形態に係る光学装置12は、さまざまな用途に応じて光線の方向と光線の色との対応づけを瞬時に変更できるという効果がある。 From the above, the optical device 12 of the optical inspection device 10 according to this embodiment makes it possible to associate the direction of light rays (direction of the light beam) with the wavelength spectrum. In addition, the projection unit 22 of the optical device 12 can instantly change the virtual projection image PI. For example, on the projection surface PP, each of the areas PIA1, PIA2, and PIA3 can be expanded or contracted in an appropriate direction. Therefore, the optical device 12 according to this embodiment has the effect of being able to instantly change the correspondence between the direction of light rays and the color of light rays according to various applications.

以上述べた少なくともひとつの実施形態によれば、光線の方向(光束の方向)と波長スペクトルとを対応付けることが可能となる光学装置12、光学検査装置10、光学検査方法、及び、例えば記憶装置64など非一時的な記憶媒体に記憶された光学検査プログラムを提供することができる。 According to at least one of the embodiments described above, it is possible to provide an optical device 12, an optical inspection device 10, an optical inspection method, and an optical inspection program stored in a non-transitory storage medium such as a storage device 64, which are capable of associating the direction of a light ray (direction of a light beam) with a wavelength spectrum.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

10…光学検査装置、12…光学装置、14…処理装置、22…投映部(投影部)、24…照明光学素子、26…撮像部、26a…ビームスプリッター、28…光拡散板、32…光源、52…撮像光学素子、54…撮像開口、54a…貫通孔、54b…媒質、56…撮像素子、62…プロセッサ、64…記憶装置、C1…照明光軸、C2…撮像光軸、FP1…照明焦点面、FP1A…照明焦点面領域、FP2…撮像焦点面、FP2A…撮像焦点面領域、PIA1…第1の仮想領域、PIA2…第2の仮想領域、L1…第1の光線、L2…第2の光線、PI1…第1の波長選択領域、PI2…第2の波長選択領域、α1…第1の発散角、α2…第2の発散角、β1…第1の光線角度、β2…第2の光線角度、γ1…第1の反射光線角、γ2…第2の反射光線角。

10...optical inspection device, 12...optical device, 14...processing device, 22...projection unit (projection unit), 24...illumination optical element, 26...imaging unit, 26a...beam splitter, 28...light diffusion plate, 32...light source, 52...imaging optical element, 54...imaging aperture, 54a...through hole, 54b...medium, 56...imaging element, 62...processor, 64...storage device, C1...illumination optical axis, C2...imaging optical axis, FP1...illumination focal plane, FP1 A...illumination focal plane area, FP2...imaging focal plane, FP2A...imaging focal plane area, PIA1...first virtual area, PIA2...second virtual area, L1...first light ray, L2...second light ray, PI1...first wavelength selection area, PI2...second wavelength selection area, α1...first divergence angle, α2...second divergence angle, β1...first light ray angle, β2...second light ray angle, γ1...first reflected light ray angle, γ2...second reflected light ray angle.

Claims (16)

焦点面又はその近傍を含む焦点面領域を有する照明光学素子と、
光源を備える投映部と
を備え、
前記投映部は、前記光源から、少なくとも2つの異なる波長スペクトルの光を含む光束を前記照明光学素子に発することができるとし、
前記投映部は、前記照明光学素子の前記焦点面又は前記焦点面領域において、前記2つの異なる波長スペクトルの光でそれぞれ異なる位置に投映像を形成する、
光学装置。
an illumination optical element having a focal plane region including a focal plane or a vicinity thereof;
A projection unit having a light source;
The projection unit can emit a light beam including light of at least two different wavelength spectra from the light source to the illumination optical element,
the projection unit forms projection images at different positions on the focal plane or the focal plane area of the illumination optical element using the light of the two different wavelength spectra.
Optical device.
前記投映部は、前記光源から、少なくとも2つの異なる波長スペクトルの光を含む光束を同時期に発する、請求項1に記載の光学装置。 The optical device according to claim 1, wherein the projection unit simultaneously emits a light beam including light of at least two different wavelength spectra from the light source. 前記投映部は、前記2つの異なる波長スペクトルの光による前記投映像を時系列的に変化させることが可能である、請求項1又は請求項2に記載の光学装置。 The optical device according to claim 1 or 2, wherein the projection unit is capable of changing the projection image produced by the light of the two different wavelength spectra in a time series manner. 前記投映部は、前記光源からの前記光束が前記焦点面又は前記焦点面領域を通過した直後の発散角を、通過直前のものに比べ大きくする、
請求項1又は請求項2に記載の光学装置。
the projection unit makes a divergence angle of the light beam from the light source immediately after passing through the focal plane or the focal plane area larger than that immediately before passing through the focal plane or the focal plane area,
3. The optical device according to claim 1 or 2.
前記投映部は、前記光源からの前記光束を前記焦点面又は前記焦点面領域において結像する、
請求項1又は請求項2に記載の光学装置。
The projection unit forms an image of the light beam from the light source on the focal plane or the focal plane area.
3. The optical device according to claim 1 or 2.
前記光源の発光面は、前記焦点面又は前記焦点面領域に配置されるとし、
前記光源は、前記異なる2つの波長スペクトルの光をそれぞれ異なる領域で独立に発光させることが可能である、
請求項1又は請求項2に記載の光学装置。
The light emitting surface of the light source is arranged at the focal plane or at the focal plane region,
The light source is capable of independently emitting light of the two different wavelength spectrums in different regions.
3. The optical device according to claim 1 or 2.
さらに光拡散部を備え、
前記光拡散部は、前記光束が前記焦点面又は前記焦点面領域を通過する際、前記光束の発散角を大きくする、
請求項1又は請求項2に記載の光学装置。
Further, a light diffusion section is provided,
The light diffusion section increases a divergence angle of the light beam when the light beam passes through the focal plane or the focal plane area.
3. The optical device according to claim 1 or 2.
さらに撮像部を備え、
前記撮像部は、前記光源からの光のうち、前記少なくとも2つの異なる波長スペクトルの光にそれぞれ含まれる少なくとも2つの異なる波長を分光できるとする、
請求項1又は請求項2に記載の光学装置。
It also has an imaging unit,
The imaging unit is capable of separating light from the light source into at least two different wavelengths each of which is included in the at least two different wavelength spectra.
3. The optical device according to claim 1 or 2.
さらに撮像部を備え、
前記撮像部は、前記光源からの光のうち、少なくとも一つの波長の光に対して物体側テレセントリック性を有する、
請求項1又は請求項2に記載の光学装置。
It also has an imaging unit,
the imaging unit has object-side telecentricity with respect to light having at least one wavelength among the light from the light source;
3. The optical device according to claim 1 or 2.
前記照明光学素子は、レンズである、
請求項1又は請求項2に記載の光学装置。
The illumination optical element is a lens.
3. The optical device according to claim 1 or 2.
請求項9に記載の光学装置と、
前記撮像部を制御し、前記撮像部で画像を取得させ、前記撮像部で撮像した前記画像の色の情報に基づいて物体表面の光学検査を行う、プロセッサと
を備える、光学検査装置。
An optical device according to claim 9 ;
and a processor that controls the imaging unit, causes the imaging unit to acquire an image, and performs optical inspection of an object surface based on color information of the image captured by the imaging unit.
前記プロセッサは、前記光学検査を行う際、前記光源から発する色の数、及び、前記撮像部の各画素で取得される色の数に基づいて前記物体表面の状態を出力する、請求項11に記載の光学検査装置。 The optical inspection device according to claim 11, wherein the processor outputs the state of the object surface based on the number of colors emitted from the light source and the number of colors acquired by each pixel of the imaging unit when performing the optical inspection. 請求項9に記載の光学装置を用いる光学検査方法であって、
前記撮像部で物体表面の画像を取得すること、
前記撮像部で撮像した前記画像の色の情報に基づいて光学検査を行うこと、
を含む、光学検査方法。
An optical inspection method using the optical device according to claim 9,
acquiring an image of a surface of an object with the imaging unit;
performing an optical inspection based on color information of the image captured by the imaging unit;
An optical inspection method comprising:
前記光学検査を行うことは、前記光源から発する色の数、及び、前記撮像部の各画素で取得される色の数に基づいて前記物体表面の状態を出力することを含む、請求項13に記載の光学検査方法。 The optical inspection method according to claim 13, wherein performing the optical inspection includes outputting the state of the object surface based on the number of colors emitted from the light source and the number of colors acquired by each pixel of the imaging unit. 請求項9に記載の光学装置を用いる光学検査プログラムであって、
前記撮像部で物体の表面の画像を取得すること、
前記撮像部で撮像した前記画像の色の情報に基づいて前記物体の表面の光学検査を行うこと、
をコンピュータに実行させる、物体の表面状態の光学検査プログラム。
An optical inspection program using the optical device according to claim 9,
acquiring an image of a surface of an object with the imaging unit;
performing an optical inspection of a surface of the object based on color information of the image captured by the imaging unit;
An optical inspection program for inspecting the surface condition of an object, the program causing a computer to execute the above steps.
前記光学検査を行うことは、前記光源から発する色の数、及び、前記撮像部の各画素で取得される色の数に基づいて前記物体の表面の状態を出力することを前記コンピュータに実行させることを含む、請求項15に記載の光学検査プログラム。

The optical inspection program of claim 15, wherein performing the optical inspection includes causing the computer to execute a process of outputting a surface condition of the object based on the number of colors emitted from the light source and the number of colors acquired at each pixel of the imaging unit.

JP2023134750A 2023-07-31 2023-08-22 OPTICAL DEVICE, OPTICAL INSPECTION DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM Pending JP2025021370A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/588,811 US20250044235A1 (en) 2023-07-31 2024-02-27 Optical apparatus, optical inspection apparatus, optical inspection method, and non-transitory storage medium storing optical inspection program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023124484 2023-07-31
JP2023124484 2023-07-31

Publications (1)

Publication Number Publication Date
JP2025021370A true JP2025021370A (en) 2025-02-13

Family

ID=94537130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023134750A Pending JP2025021370A (en) 2023-07-31 2023-08-22 OPTICAL DEVICE, OPTICAL INSPECTION DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM

Country Status (1)

Country Link
JP (1) JP2025021370A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329630A (en) * 2005-05-23 2006-12-07 Hitachi High-Technologies Corp Defect inspection apparatus and defect inspection method
JP2019179026A (en) * 2018-02-13 2019-10-17 カムテック エルティーディー. Optical contrast enhancement for defect inspection
WO2022107725A1 (en) * 2020-11-17 2022-05-27 マシンビジョンライティング株式会社 Image observation device and illumination optical system for same
WO2022113369A1 (en) * 2020-11-30 2022-06-02 ヤマハ発動機株式会社 Mounting-board inspection apparatus and inspection apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329630A (en) * 2005-05-23 2006-12-07 Hitachi High-Technologies Corp Defect inspection apparatus and defect inspection method
JP2019179026A (en) * 2018-02-13 2019-10-17 カムテック エルティーディー. Optical contrast enhancement for defect inspection
WO2022107725A1 (en) * 2020-11-17 2022-05-27 マシンビジョンライティング株式会社 Image observation device and illumination optical system for same
WO2022113369A1 (en) * 2020-11-30 2022-06-02 ヤマハ発動機株式会社 Mounting-board inspection apparatus and inspection apparatus

Similar Documents

Publication Publication Date Title
JP6206560B2 (en) system
JP5471477B2 (en) Thread inspection equipment
US12092582B2 (en) Optical inspection device
US11758278B2 (en) Optical apparatus
WO2021255793A1 (en) Illumination device for inspection and measurement, inspection and measurement system, and inspection and measurement method
US12188876B2 (en) Optical inspection method, non-transitory storage medium storing optical inspection program, processing device, and optical inspection apparatus
JP7413234B2 (en) Optical imaging device, optical inspection device, and optical inspection method
US20250044235A1 (en) Optical apparatus, optical inspection apparatus, optical inspection method, and non-transitory storage medium storing optical inspection program
JP2021148531A (en) Optical device, information processing method and program
JP2025021370A (en) OPTICAL DEVICE, OPTICAL INSPECTION DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM
JP7777962B2 (en) Inspection lighting device and inspection system
JP7524119B2 (en) OPTICAL DEVICE, OPTICAL INSPECTION METHOD, AND OPTICAL INSPECTION PROGRAM
JP2005233695A (en) Flaw inspection device for transparent panel
US20260016369A1 (en) Optical apparatus, optical inspection apparatus, optical inspection system, and optical inspection method
JP7458617B1 (en) Inspection lighting equipment, illumination optical system, and inspection system
US20250297852A1 (en) Optical inspection apparatus, optical inspection method, and non-transitory storage medium storing optical inspection program
US20240319104A1 (en) Optical inspection apparatus, optical inspection method, and non-transitory storage medium storing optical inspection program
EP4435412A1 (en) Optical inspection method, optical inspection program, and optical inspection apparatus
US20250383287A1 (en) Optical apparatus, optical inspection system, and optical inspection method
JP2005308725A (en) Device for inspecting defect in transparent plate
JP2025043962A (en) Optical apparatus, optical inspection system, and method for imaging object
JP2023139658A (en) Optical inspection method, optical inspection program, processing device, and optical inspection device
JP2024043331A (en) Optical inspection program, optical inspection system, processing device for optical inspection system, and optical inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20251205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251216