WO2025069808A1 - Computer program, information processing method, and information processing device - Google Patents
Computer program, information processing method, and information processing device Download PDFInfo
- Publication number
- WO2025069808A1 WO2025069808A1 PCT/JP2024/029745 JP2024029745W WO2025069808A1 WO 2025069808 A1 WO2025069808 A1 WO 2025069808A1 JP 2024029745 W JP2024029745 W JP 2024029745W WO 2025069808 A1 WO2025069808 A1 WO 2025069808A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- pattern
- information processing
- template image
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Definitions
- This disclosure relates to a computer program, an information processing method, and an information processing device.
- Patent Document 1 proposes a pattern inspection system that inspects an image of a pattern to be inspected using a classifier configured by machine learning based on an image of a pattern to be inspected of an electronic device and data used to manufacture the pattern to be inspected.
- This pattern inspection system includes a memory unit that stores multiple pattern images of the electronic device and pattern data used to manufacture the pattern of the electronic device, and an image selection unit that selects a learning pattern image to be used for machine learning from the multiple pattern images based on the pattern data and pattern images stored in the memory unit.
- the present disclosure provides a computer program, an information processing method, and an information processing device that are expected to be able to detect various patterns from a target image without prior machine learning of the target patterns.
- a computer program is a computer program that causes a computer to execute a process of detecting a predetermined pattern formed on a substrate from a target image of the substrate that has been processed by a substrate processing apparatus, and causes the computer to execute a process of acquiring a template image onto which the pattern to be detected is captured, extracting features from the template image and the target image, and detecting the pattern to be detected from the target image based on a comparison result between the features of the template image and the features of the target image.
- This disclosure is expected to enable detection of various patterns from target images without prior machine learning of the target patterns.
- FIG. 1 is a schematic diagram for explaining an overview of an information processing system according to an embodiment of the present invention
- 1 is a block diagram showing an example of a configuration of an information processing device according to an embodiment of the present invention
- FIG. 11 is a schematic diagram for explaining an example of a method for acquiring a template image.
- FIG. 11 is a schematic diagram for explaining an example of a pattern detection process.
- FIG. 11 is a schematic diagram for explaining an example of a pattern detection process.
- FIG. 11 is a schematic diagram for explaining an example of a pattern detection process.
- 10 is a flowchart showing an example of a procedure of a pattern detection process performed by the information processing device according to the first embodiment.
- 13 is a flowchart showing an example of a procedure of a pattern detection process performed by an information processing device according to a second embodiment. 13 is a flowchart showing an example of a procedure of a pattern detection process performed by an information processing device according to a third embodiment. 13 is a flowchart showing an example of a procedure of a pattern detection process performed by an information processing device according to a fourth embodiment.
- the communication unit 13 is connected to the scanning electron microscope 102 via a cable such as a communication line or a signal line, and transmits and receives data to and from the scanning electron microscope 102 via this cable.
- the communication unit 13 receives data of an SEM image of a substrate transmitted from the scanning electron microscope 102, and provides the received data to the processing unit 11.
- the SEM image is transmitted from the scanning electron microscope 102 to the information processing device 1 via communication, but this is not limited to this, and the SEM image may be transmitted and received via a recording medium such as a memory card.
- the display unit 14 is configured using a liquid crystal display or the like, and displays various images, characters, etc. based on the processing of the processing unit 11.
- the display unit 14 displays, for example, the SEM image acquired from the scanning electron microscope 102, and the pattern detection results from the SEM image.
- the operation unit 15 accepts user operations and notifies the processing unit 11 of the accepted operations.
- the operation unit 15 accepts user operations through an input device such as a mechanical button or a touch panel provided on the surface of the display unit 14.
- the operation unit 15 may also be an input device such as a mouse and a keyboard, and these input devices may be configured to be removable from the information processing device 1.
- the storage unit 12 may be an external storage device connected to the information processing device 1.
- the information processing device 1 may be a multi-computer including multiple computers, or may be a virtual machine virtually constructed by software.
- the information processing device 1 is not limited to the above configuration, and may not include, for example, the display unit 14 and the operation unit 15.
- the processing unit 11 reads out and executes the program 12a stored in the memory unit 12, thereby realizing an image acquisition unit 11a, a feature point extraction unit 11b, a matching processing unit 11c, a pattern detection unit 11d, a state determination unit 11e, a display processing unit 11f, etc. as software functional units in the processing unit 11.
- functional units related to the process of detecting patterns from SEM images are shown as functional units of the processing unit 11, and functional units related to other processes are not shown.
- the image acquisition unit 11a performs processing to acquire an SEM image (target image) taken by the scanning electron microscope 102 of a substrate that has been processed by the substrate processing apparatus 101, and a template image onto which the pattern to be detected is projected.
- the image acquisition unit 11a acquires the SEM image of the substrate taken by the scanning electron microscope 102 by communicating with the scanning electron microscope 102 via the communication unit 13.
- the image acquisition unit 11a also displays an SEM image acquired from the scanning electron microscope 102 on the display unit 14, and receives a specification of a partial image area from the SEM image from the user, thereby acquiring this partial image area as a template image.
- the image acquisition unit 11a receives input of text information such as title information and explanatory information related to the acquired template image from the user, and stores the template image together with the received information in the template image storage unit 12b.
- the image acquisition unit 11a also displays a list of multiple template images stored in the template image storage unit 12b as candidates on the display unit 14, receives the selection of one of the displayed multiple candidates, and acquires the selected candidate as the template image.
- the user can appropriately select which method to use to specify the template image, for example on a menu screen, etc.
- the feature point extraction unit 11b performs a process of extracting feature points for the SEM image and template image acquired by the image acquisition unit 11a.
- the feature point extraction process is a process of identifying characteristic points (pixels) such as edges or corners contained in an image, and can be performed using existing methods such as SIFT (Scale Invariant Feature Transformation) or AKAZE (Accelerated-KAZE).
- SIFT Scale Invariant Feature Transformation
- AKAZE Accelerated-KAZE
- Each feature point extracted from an image by the feature point extraction unit 11b includes information on the position of the feature point in the image (e.g., x, y coordinates) and a numerical value (feature amount) indicating the characteristic of this point.
- the matching processing unit 11c matches the feature points of the SEM image extracted by the feature point extraction unit 11b with the feature points of the template image. For example, the matching processing unit 11c determines which of the multiple feature points extracted from the SEM image each feature point extracted from the template image corresponds to by comparing the positions and feature amounts of the feature points. As a result of the matching processing, the matching processing unit 11c outputs information indicating which of the feature points of the SEM image each feature point of the template image corresponds to (matches).
- the pattern detection unit 11d performs a process of detecting a pattern from the SEM image that is the same as the pattern transferred to the template image, based on the results of the matching process by the matching processing unit 11c. Note that a pattern that is "the same” as the pattern transferred to the template image does not mean that it is completely identical. Patterns that are the same in design but have different sizes or shapes due to each process of substrate processing are also included in the "same" pattern.
- the pattern detection unit 11d identifies an image area in the SEM image that is the same size as the template image and contains the most feature points that match the feature points of the template image.
- the pattern detection unit 11d extracts an image area from the SEM image that includes the image area identified in the SEM image and is larger than this image area (for example, an image area that is 1.2 times the size of the identified image area in both the vertical and horizontal directions).
- the pattern detection unit 11d causes the feature point extraction unit 11b to extract feature points and the matching processing unit 11c to match feature points between the template image and the image area extracted from the SEM image, and obtains the feature point matching results. Based on the results of the re-matching, the pattern detection unit 11d creates a bounding box that encloses the matched feature points in the extracted image area. The portion surrounded by this bounding box corresponds to the detected pattern, and the pattern detection unit 11d outputs information about the bounding box (for example, information such as the position of the bounding box in the original SEM image) as the result of pattern detection.
- the pattern detection unit 11d can detect one pattern from the SEM image that is the same as the template image by the above process.
- the pattern detection unit 11d detects multiple patterns from the SEM image by repeatedly performing the same process on the same SEM image. At this time, the pattern detection unit 11d repeats the process by excluding the image area corresponding to the bounding box surrounding the pattern already detected in the SEM image from the target of the feature point extraction and feature point matching processes. In each repetition, the pattern detection unit 11d also calculates the similarity between the image area of the bounding box surrounding the detected pattern and the template image, and ends the repetition of pattern detection when the similarity falls below a predetermined threshold. Note that the calculation of the similarity may be performed by any method, and for example, if information such as the degree of matching is obtained in the feature point matching process, this may be used as the similarity.
- the state determination unit 11e performs a process of determining the state of each pattern detected from the SEM image by the pattern detection unit 11d. For example, the state determination unit 11e measures the length and width of each pattern based on the information of the bounding box surrounding each pattern, and determines whether each pattern is normal (good) or abnormal (defective) depending on whether the measured length is within a predetermined range. For example, the state determination unit 11e can determine whether a pattern is normal or abnormal by regarding the pattern of the template image as a normal pattern or by accepting an input of an image of a normal pattern from a user, and determining whether the similarity between the normal pattern and the detected pattern exceeds a predetermined threshold. Note that the state determination of each pattern by the state determination unit 11e is not limited to the above, and any method and any state may be used to determine the pattern.
- ⁇ Pattern detection process> 3 is a schematic diagram for explaining an example of a method for acquiring a template image.
- the information processing device 1 displays an SEM image of a target substrate acquired from, for example, a scanning electron microscope 102 on the display unit 14, and accepts a user's designation of an area for the displayed SEM image.
- the information processing device 1 accepts a selection of a rectangular image area for the SEM image based on, for example, an operation on a mouse of the operation unit 15 (see the upper part of FIG. 3).
- the information processing device 1 acquires the rectangular image area selected by the user as a template image (see the lower left of FIG. 3).
- the information processing device 1 also treats an image obtained by removing the image area corresponding to the template image from the original SEM image as a target SEM image for detecting a pattern in subsequent processing (see the lower right of FIG. 3).
- the information processing device 1 stores the template image selected based on the user's input in the template image storage unit 12b. Instead of acquiring a template image based on the user's input from an SEM image acquired from the scanning electron microscope 102, the information processing device 1 may, for example, display a list of the template images stored in the template image storage unit 12b, accept a selection from the user of one of the displayed template images, and use the selected template image for subsequent pattern detection processing. Note that the method by which the information processing device 1 acquires the template image may be appropriately selected by the user, for example, on a menu screen.
- FIGS. 4 to 6 are schematic diagrams for explaining an example of pattern detection processing.
- the information processing device 1 acquires the SEM image and template image to be processed, and performs processing to extract feature points for each of the SEM image and template image.
- the upper part of FIG. 4 shows an image in which the extracted feature points are superimposed on the SEM image and template image, as an example of the feature point extraction result.
- Each feature point has coordinate information in the SEM image and template image, and feature amount information that indicates the characteristics of each point.
- the information processing device 1 can extract feature points from the SEM image and template image using an existing feature point extraction method such as SIFT or AKAZE.
- the information processing device 1 performs a matching process between the feature points of the SEM image and the feature points of the template image.
- the information processing device 1 determines which of the multiple feature points of the SEM image each feature point of the template image corresponds to, for example, based on the position and feature amount of each feature point.
- the lower part of Figure 4 shows an example of the result of the feature point matching process by displaying the SEM image and the template image side by side and connecting the feature points of the SEM image and the feature points of the template image with straight lines.
- the information processing device 1 Based on the results of the matching process, the information processing device 1 identifies an image area from the SEM image that is the same size as the template image so as to include as many feature points of the SEM image as possible that match the feature points of the template image. The information processing device 1 then extracts an image area from the SEM image that is larger than this identified image area (for example, an image area that is expanded a predetermined amount in all directions from the identified image area).
- the upper part of Figure 5 shows an example of an image area extracted from the SEM image based on the results of the matching process, surrounded by a rectangular frame.
- the information processing device 1 again performs the process of extracting feature points and the process of matching the extracted feature points on the image area extracted from the SEM image and the template image.
- the information processing device 1 further identifies an image area of the same size as the template image from this image area so as to include as many feature points as possible in the image area that match the feature points of the template image.
- the lower part of Figure 5 shows an example of an image area finally identified by the information processing device 1.
- the information processing device 1 regards the identified image area as an image area in which the same pattern as the template image is captured, and outputs the coordinates of the bounding box surrounding this image area as the pattern detection result.
- the information processing device 1 After detecting one pattern from an SEM image, the information processing device 1 excludes the image area corresponding to the detected pattern from the original SEM image.
- the upper part of Figure 6 shows an example of an SEM image from which the detected area has been excluded.
- the information processing device 1 can detect multiple patterns from one SEM image by repeatedly performing the above-mentioned pattern detection procedure on the SEM image from which the image area of the detected pattern has been excluded.
- the lower part of Figure 6 shows an example of an SEM image from which pattern detection has been repeatedly performed and multiple image areas corresponding to the detected patterns have been excluded.
- the information processing device 1 repeatedly detects patterns from the SEM image as described above, and each time a pattern is detected, calculates the similarity between the detected pattern and the pattern of the template image. When the similarity falls below a predetermined threshold, i.e., when the information processing device 1 determines that the detected pattern is not similar to the pattern of the template image, it ends the repeated pattern detection.
- the information processing device 1 performs a state determination, such as the presence or absence of an abnormality, for each pattern detected from the SEM image. For example, the information processing device 1 can determine whether each pattern is normal or abnormal by measuring a distance such as the length or width for each detected pattern based on a bounding box and determining whether the measured distance is within a normal range. Furthermore, for example, the information processing device 1 can determine whether each pattern is normal or abnormal by calculating the similarity between the pattern of the template image and each detected pattern and determining whether the similarity exceeds a threshold value. The information processing device 1 may determine the state of a detected pattern using various other methods.
- the information processing device 1 displays the pattern detection results from the SEM image and the state determination results for the detected patterns on the display unit 14. For example, the information processing device 1 displays an image in which a bounding box surrounding the detected pattern is superimposed on the target SEM image acquired from the scanning electron microscope 102, and by highlighting the bounding box corresponding to the pattern determined to be abnormal, the information processing device 1 notifies the user of the location of the patterns in the SEM image and the state of each pattern.
- FIG. 7 is a flowchart showing an example of the procedure of the pattern detection process performed by the information processing device 1 according to the first embodiment.
- the image acquisition unit 11a of the processing unit 11 of the information processing device 1 according to the first embodiment communicates with the scanning electron microscope 102 via the communication unit 13, and acquires an SEM image of the target substrate photographed by the scanning electron microscope 102 (step S1).
- the image acquisition unit 11a acquires a template image onto which the pattern to be detected is transferred from the SEM image by, for example, displaying the SEM image acquired in step S1 on the display unit 14 and accepting an image area selection operation for the SEM image on the operation unit 15 (step S2).
- the image acquisition unit 11a may acquire a template image onto which the pattern to be searched is transferred by accepting, from the user, a selection of one template image from among multiple template images stored in the template image storage unit 12b.
- the image acquisition unit 11a stores the template image acquired in step S2 in the template image storage unit 12b (step S3).
- the feature point extraction unit 11b of the processing unit 11 extracts feature points from the SEM image acquired in step S1 and the template image acquired in step S2 (step S4).
- the matching processing unit 11c of the processing unit 11 performs a feature point matching process based on the feature points extracted in step S4 to determine which feature points of the template image correspond to which feature points of the SEM image (step S5).
- the pattern detection unit 11d of the processing unit 11 identifies an image area that is the same size as the template image and contains the most feature points that match the feature points of the template image based on the results of the matching process in step S5, and extracts an image area that is a constant multiple of the identified image area from the SEM image (step S6).
- the feature point extraction unit 11b re-extracts feature points from the image area extracted in step S6 (step S7).
- the matching processing unit 11c re-matches the feature points of the template image with the feature points of the image area re-extracted in step S7 (step S8).
- the pattern detection unit 11d creates a bounding box for the detected pattern based on the results of the re-matching in step S8, for example by creating a bounding box to surround the matched feature points (step S9).
- the pattern detection unit 11d calculates the similarity between the pattern of the template image and the pattern surrounded by the bounding box created in step S9, and determines whether this similarity is equal to or less than a predetermined threshold (step S10). If the similarity exceeds the threshold (S10: NO), the pattern detection unit 11d deletes the area corresponding to the detected pattern from the SEM image to be processed (step S11), returns the process to step S4, and performs the processes of steps S4 to S10 on the SEM image from which the area of the detected pattern has been deleted.
- the state determination unit 11e of the processing unit 11 performs a state determination for each pattern detected from the SEM image, such as whether it is normal or abnormal (step S12).
- the display processing unit 11f of the processing unit 11 displays the detection result of the pattern indicated by the bounding box created in step S9 and the state determination result of each pattern performed in step S12 on the display unit 14 (step S13), and ends the process.
- a substrate that has been subjected to processing such as etching by the substrate processing apparatus 101 is photographed by the scanning electron microscope 102, and the information processing apparatus 1 performs processing for detecting a predetermined pattern formed on the substrate from the target image (SEM image) obtained by photographing.
- the information processing apparatus 1 acquires a template image on which the detection target pattern is projected, extracts feature amounts such as feature points from each of the target image and the template image, and detects the detection target pattern from the target image based on the comparison result between the feature amounts of the template image and the feature amounts of the target image.
- the information processing system according to the present embodiment is expected to detect various patterns from the target image without machine learning the detection target pattern in advance.
- the information processing device 1 extracts feature points from each of the template image and the target image, matches the feature points of the template image with the feature points of the target image, and detects the target pattern from the target image based on the matching results.
- Existing methods such as SIFT can be used to extract feature points, and the information processing system according to this embodiment is expected to detect various patterns from the target image with higher accuracy without prior machine learning of the target pattern.
- the information processing device 1 extracts an image area larger than the template image from the target image based on the result of matching feature points, re-extracts feature points from this image area, and matches the feature points of the template image with the feature points of the image area to detect the target pattern from this image area.
- the information processing system according to this embodiment is able to first extract an image area from the target image where the target pattern is likely to exist, and then detect the pattern from within this image area, which is expected to more accurately extract the target pattern from the target image.
- the information processing device 1 extracts feature points from the target image excluding the detected pattern, matches the extracted feature points with feature points of the template image, extracts an image area based on the matching result, re-matches the feature points of the extracted image area with the feature points of the template image, and detects a pattern from the target image based on the re-matching result, thereby detecting multiple patterns from the target image.
- the information processing system according to this embodiment can detect multiple similar patterns when multiple similar patterns are placed in a single target image.
- the information processing device 1 calculates the similarity between the pattern detected from the target image and the pattern of the template image, and ends the above-mentioned repeated process when the similarity falls below a threshold value.
- the information processing system according to this embodiment is expected to prevent a pattern with a low similarity from being detected as the target pattern, and to prevent erroneous detection of a pattern.
- the information processing device 1 accepts from the user a selection operation of an image area in which the pattern to be detected is captured from the target image acquired from the scanning electron microscope 102, and sets the accepted image area as a template image.
- the information processing system according to this embodiment is expected to acquire, for example, one pattern from a target image in which multiple similar patterns are arranged, based on a user selection, and use it as a template image to detect a similar pattern from the target image.
- the information processing device 1 stores a template image in the template image storage unit 12b, accepts a selection from multiple template images stored in the template image storage unit 12b, and detects a pattern from a target image based on the selected template image.
- the user when detecting a pattern similar to a previously detected pattern from another target image, the user can reuse the template image stored in the storage unit, which is expected to improve convenience.
- the information processing device 1 performs a state determination for each pattern detected from the target image, for example, determining whether it is normal or abnormal.
- the information processing system according to this embodiment can be expected to provide the user with information regarding the state of each detected pattern, in addition to the detection results of the patterns contained in the target image.
- FIG. 3 to 6 a schematic SEM image of one or more holes formed by etching a substrate in the vertical direction is shown, and the process performed by the information processing device 1 using the holes as the pattern to be detected is described, but the pattern to be detected is not limited to such holes.
- the pattern may be, for example, functional elements such as transistors or capacitors formed in multiple on the substrate, or various formations such as thin films. The same applies to the following embodiments.
- the information processing device 1 acquires an SEM image acquired from a scanning electron microscope 102 and a template image on which a detection target pattern is projected, and performs a process for detecting a first pattern from the SEM image based on a matching result of feature points of both images in the same procedure as the process by the information processing device 1 according to the first embodiment described above.
- the information processing device 1 After detecting the first pattern from the SEM image, the information processing device 1 according to the second embodiment replaces the old template image with an image of the detected pattern (i.e., an image within the bounding box obtained as a result of the detection) as a new template image.
- the information processing device 1 according to the second embodiment detects the second and subsequent patterns from the SEM image by performing so-called template matching processing using this new template image.
- Template matching is a technique in which an image area of the same size as a template image is extracted from a target image (SEM image), and if the similarity between the extracted image and the template image exceeds a threshold, it is determined that the pattern to be detected is captured in this image area.
- SEM image target image
- FIG. 8 is a flowchart showing an example of the procedure of the pattern detection process performed by the information processing device 1 according to the second embodiment.
- the processing unit 11 of the information processing device 1 according to the second embodiment performs the following steps, similar to the procedure of the flowchart shown in FIG. 7: acquisition of an SEM image of the target substrate (step S1), acquisition of a template image (step S2), storage of the template image (step S3), extraction of feature points (step S4), feature point matching (step S5), extraction of an image area from the SEM image (step S6), re-extraction of feature points (step S7), re-matching of feature points (step S8), and creation of a bounding box for the detected pattern (step S9).
- the process of steps S1 to S9 performed by the information processing device 1 according to the second embodiment is the same as the process of steps S1 to S9 shown in FIG. 7, and therefore some of the process of steps S1 to S9 are omitted in FIG. 8.
- the pattern detection unit 11d of the processing unit 11 deletes the area corresponding to the pattern detected in steps S1 to S9 from the SEM image acquired in step S1 (step S31).
- the pattern detection unit 11d also replaces the image corresponding to the pattern detected in steps S1 to S9 with a new template image (step S32).
- the pattern detection unit 11d extracts an image area of the same size as the template image from the SEM image from which the area corresponding to the pattern detected in step S31 has been deleted (step S33).
- the pattern detection unit 11d calculates the similarity between the image area extracted in step S33 and the template image (step S34).
- the pattern detection unit 11d determines whether the similarity calculated in step S34 exceeds a predetermined threshold (step S35). If the similarity exceeds the threshold (S35: YES), the pattern detection unit 11d determines that the pattern to be detected is reflected in this image area, stores the position of the image area of this pattern in the SEM image (step S36), and proceeds to step S37.
- the pattern detection unit 11d determines that the pattern to be detected is not reflected in this image area, and proceeds to step S37.
- the pattern detection unit 11d determines whether the process of extracting an image region and determining the similarity with the template image has been completed for all positions in the SEM image (step S37). If this process has not been completed for all positions (S37: NO), the pattern detection unit 11d returns to step S32, moves the extraction position, and repeats the processes of steps S32 to S37.
- the state determination unit 11e of the processing unit 11 performs a state determination for each pattern detected from the SEM image, such as whether it is normal or abnormal, based on the positions stored in step S36 (step S38).
- the display processing unit 11f of the processing unit 11 displays on the display unit 14 a bounding box surrounding each pattern detected from the SEM image and the results of the state determination for each pattern performed in step S38 (step S39), and ends the process.
- the information processing device 1 extracts template image candidates from the SEM image acquired from the scanning electron microscope 102 by the method described in the third embodiment, selects a candidate corresponding to the input natural language from among the multiple candidates, and presents the selected candidates to the user in a list display.
- the information processing device 1 may also select a template image corresponding to the input natural language from among the template images stored in the template image storage unit 12b, and present the selected template images as candidates in a list display to the user.
- the information processing device 1 converts, for example, a natural language input by a user into a feature vector using the LLM, and converts multiple images that are candidates for template images into feature vectors using a learning model (encoder) that has been machine-learned in advance.
- the information processing device 1 calculates the similarity between the feature vector of the input natural language and the feature vector of each candidate, and selects a predetermined number of candidates in descending order of similarity and presents them to the user, thereby being able to present candidates corresponding to the natural language input by the user to the user.
- FIG. 10 is a flowchart showing an example of the procedure of the pattern detection process performed by the information processing device 1 according to embodiment 4.
- the procedure of the pattern detection process performed by the information processing device 1 according to embodiment 4 is similar to the procedure of the pattern detection process performed by the information processing device 1 according to embodiment 1 shown in FIG. 7 except that step S2 of acquiring a template image based on a user's input is replaced with steps S71 to S77 of presenting template image candidates corresponding to natural language input from the user and acquiring a template image. Since steps S3 and onward of the pattern detection process performed by the information processing device 1 according to embodiment 4 are the same as those shown in FIG. 7, some of the processes of steps S3 to S13 are not shown in FIG. 10.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
Description
本開示は、コンピュータプログラム、情報処理方法及び情報処理装置に関する。 This disclosure relates to a computer program, an information processing method, and an information processing device.
特許文献1においては、電子デバイスの検査対象パターンの画像と検査対象パターンを製造するために使用するデータとに基づいて機械学習により構成された識別器を用いて検査対象パターンの画像を検査するパターン検査システムが提案されている。このパターン検査システムは、電子デバイスの複数のパターン画像及び電子デバイスのパターンを製造するために使用するパターンデータを格納する記憶部と、記憶部に格納されたパターンデータ及びパターン画像に基づき、複数のパターン画像から機械学習に用いる学習用パターン画像を選択する画像選択部とを備える。
本開示は、検出対象のパターンを予め機械学習することなく、様々なパターンを対象画像から検出することが期待できるコンピュータプログラム、情報処理方法及び情報処理装置を提供する。 The present disclosure provides a computer program, an information processing method, and an information processing device that are expected to be able to detect various patterns from a target image without prior machine learning of the target patterns.
一実施形態に係るコンピュータプログラムは、コンピュータに、基板処理装置による処理がなされた基板を撮影した対象画像から、前記基板に形成された所定のパターンを検出する処理を実行させるコンピュータプログラムであって、前記コンピュータに、検出対象のパターンが写されたテンプレート画像を取得し、前記テンプレート画像及び前記対象画像からそれぞれ特徴量を抽出し、前記テンプレート画像の特徴量と前記対象画像の特徴量との比較結果に基づいて、前記対象画像から検出対象のパターンを検出する処理を実行させる。 A computer program according to one embodiment is a computer program that causes a computer to execute a process of detecting a predetermined pattern formed on a substrate from a target image of the substrate that has been processed by a substrate processing apparatus, and causes the computer to execute a process of acquiring a template image onto which the pattern to be detected is captured, extracting features from the template image and the target image, and detecting the pattern to be detected from the target image based on a comparison result between the features of the template image and the features of the target image.
本開示によれば、検出対象のパターンを予め機械学習することなく、様々なパターンを対象画像から検出することが期待できる。 This disclosure is expected to enable detection of various patterns from target images without prior machine learning of the target patterns.
本開示の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本開示はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 Specific examples of information processing systems according to embodiments of the present disclosure are described below with reference to the drawings. Note that the present disclosure is not limited to these examples, but is set forth in the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims.
[実施の形態1]
<システム概要>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、情報処理装置1、基板処理装置101及び走査電子顕微鏡102等を備えて構成されている。基板処理装置10は、例えば半導体のウェハ(基板)に対してエッチング等の処理を施すプロセスチャンバー等の装置である。基板処理装置101にてエッチング等の処理がなされた処理済みの基板は、走査電子顕微鏡102にて表面形状などの撮影がなされる。走査電子顕微鏡102は、電子線を対象物に照射し、対象物から放出される二次電子又は透過電子等を検出することで、対象物を観察する装置であり、対象物を撮影したいわゆるSEM(Scanning Electron Microscope)画像を出力する。走査電子顕微鏡102が出力したSEM画像は情報処理装置1へ与えられる。なお本実施の形態においては走査電子顕微鏡102が撮影したSEM画像を対象として処理を行うが、これに限るものではなく、例えば透過電子顕微鏡又は光学顕微鏡等が撮影した画像を対象として処理を行ってもよい。
[First embodiment]
<System Overview>
FIG. 1 is a schematic diagram for explaining an overview of an information processing system according to the present embodiment. The information processing system according to the present embodiment is configured to include an
基板処理装置101による基板処理がなされた基板の表面には種々の形状の構造物が形成されており、例えば図1の中央に示したSEM画像のように、基板には同じ形状の構造物が複数形成される場合がある。以下、本実施の形態においては、このような同じ形状の各構造物をパターンという。しかし実際には、同じ形状のパターンの形成を意図していたとしても、成膜、エッチング又は露光等の各プロセスに起因して、大きさ又は形状等が各パターンで異なってしまう。所定の閾値を超えて大きさや形状が逸脱したパターンは、異常と判断される。本実施の形態に係る情報処理システムは、走査電子顕微鏡102が撮影した対象基板のSEM画像を基に、対象基板に形成された複数のパターンを検出すると共に、検出した各パターンの状態判定を行うシステムである。
Structures of various shapes are formed on the surface of a substrate that has been processed by the
なお本実施の形態においては、基板処理装置101、走査電子顕微鏡102及び情報処理装置1を個別の装置として説明を行うが、これに限るものではない。例えば基板処理装置101及び走査電子顕微鏡102が1つの装置であってもよく、走査電子顕微鏡102及び情報処理装置1が1つの装置であってもよく、基板処理装置101、走査電子顕微鏡102及び情報処理装置1が1つの装置であってもよい。また基板処理装置101、走査電子顕微鏡102及び情報処理装置1の各装置が、更に複数の装置を組み合わせて構成されていてもよい。
In the present embodiment, the
情報処理装置1は、走査電子顕微鏡102が対象の基板を撮影したSEM画像を取得する。また本実施の形態において情報処理装置1は、検出対象のパターンが写された画像をテンプレート画像として取得する。情報処理装置1は、対象基板のSEM画像からテンプレート画像に写されたパターンを検出する。図1の下段には、SEM画像から検出されたパターンがバウンディングボックスに囲まれた状態が示されている。情報処理装置1は、例えば検出した各パターンについてSEM画像に対するバウンディングボックスの位置及びサイズ等の情報を、パターンの検出結果として出力する。
The
本実施の形態において情報処理装置1は、テンプレート画像から特徴点を抽出すると共に、対象のSEM画像から特徴点を抽出し、抽出した両画像の特徴点のマッチング処理を行うことによって、SEM画像からテンプレート画のパターンを検出する。パターンの検出に特徴点のマッチング処理を採用することによって、本実施の形態に係る情報処理システムでは、例えば検出対象のパターンの形状等を学習モデルが予め機械学習により学習しておくというような事前処理は必要なく、検出対象のパターンをユーザが任意に指定することが可能である。ユーザは、パターンが写された画像又はパターンが描かれた画像等のテンプレート画を情報処理装置1へ与えることにより、検出対象のパターンを指定することができる。特徴点に基づくパターン検出の処理の詳細は後述する。
In this embodiment, the
また情報処理装置1は、SEM画像から検出した各パターンの状態を判定する。基板上に形成される複数のパターンには、同じ形状で形成することを意図していても、基板処理の各プロセスに起因して大きさ又は形状等に差異が生じ得る。所定の閾値を超えて大きさ又は形状等が逸脱したパターンは異常なパターンとみなされ、大きさ又は形状等の際が閾値の範囲内のパターンは正常なパターンとみなされる。そこで、例えば情報処理装置1は、SEM画像から検出した各パターンについて、バウンディングボックスに基づいて長さ又は幅等を測定する。情報処理装置1は、各パターンについて測定した長さ等が適切な範囲であるか否かに基づいて、各パターンが正常であるか又は異常であるか等を判定することができる。また例えば情報処理装置1は、テンプレート画像のパターンとSEM画像から検出した各パターンとの類似度をそれぞれ算出する。情報処理装置1は、テンプレート画のパターンが正常であるとみなし、類似度が閾値を超える(即ちテンプレート画のパターンと検出したパターンとが類似する)場合に検出したパターンを正常と判定し、類似度が閾値を超えない場合に検出したパターンを異常と判定する。なおSEM画像から検出したパターンについて状態を判定する方法は、上記の方法に限らず、種々の方法が採用されてよい。またSEM画像から検出したパターンについて判定する状態は、正常又は異常の2種類ではなく、3種類以上の状態であってよい。
The
<装置構成>
図2は、本実施の形態に係る情報処理装置1の一構成例を示すブロック図である。本実施の形態に係る情報処理装置1は、例えばパーソナルコンピュータ又はサーバコンピュータ等の汎用的な情報処理装置に所定のアプリケーションプログラム等をインストールすることにより実現され得る。ただし情報処理装置1は、基板処理装置101又は走査電子顕微鏡102の制御を行う専用の情報処理装置であってもよい。本実施の形態に係る情報処理装置1は、処理部11、記憶部12、通信部13、表示部14及び操作部15等を備えて構成されている。なお本実施の形態においては、1つの情報処理装置1にて処理が行われるものとして説明を行うが、情報処理装置1の処理を複数の装置が分散して行ってもよい。
<Device Configuration>
2 is a block diagram showing an example of the configuration of the
処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)又は量子プロセッサ等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたプログラム12aを読み出して実行することにより、テンプレート画及びSEM画像を取得する処理、SEM画像からパターンを検出する処理、並びに、検出したパターンの状態を判定する処理等の種々の処理を行う。
The
記憶部12は、例えばハードディスク又はSSD(Solid State Drive)等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するプログラム12aを記憶する。また記憶部12には、SEM画像から検出する対象のパターンが写されたテンプレート画像を記憶して蓄積するテンプレート画像記憶部12bが設けられている。
The
本実施の形態においてプログラム(コンピュータプログラム、プログラム製品)12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、情報処理装置1は記録媒体99からプログラム12aを読み出して記憶部12に記憶する。ただし、プログラム12aは、例えば情報処理装置1の製造段階において記憶部12に書き込まれてもよい。また例えばプログラム12aは、遠隔のサーバ装置等が配信するものを情報処理装置1が通信にて取得してもよい。例えばプログラム12aは、記録媒体99に記録されたものを書込装置が読み出して情報処理装置1の記憶部12に書き込んでもよい。プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In this embodiment, the program (computer program, program product) 12a is provided in a form recorded on a
テンプレート画像記憶部12bは、パターンの検出に用いたテンプレート画像を記憶して蓄積する。情報処理装置1は、例えばユーザがSEM画像の一部分を切り取って生成したテンプレート画像を取得してテンプレート画像記憶部12bに記憶しておく。テンプレート画像記憶部12bは、テンプレート画像と共に、例えばユーザが設定したテンプレート画像のタイトル情報又はこのテンプレート画像に写されたパターンに関する説明情報等のテキスト情報と、テンプレート画像を取得した日時等の情報とを対応付けて記憶する。情報処理装置1は、例えばテンプレート画像記憶部12bに記憶された複数のテンプレート画像を候補として一覧表示し、複数の候補の中から1つの選択を受け付けることによって、検出対象のパターンとなるテンプレート画像を取得することができる。
The template
通信部13は、通信線又は信号線等のケーブルを介して走査電子顕微鏡102に接続され、このケーブルを介して走査電子顕微鏡102との間でデータの送受信を行う。本実施の形態において通信部13は、走査電子顕微鏡102から送信される基板のSEM画像のデータを受信し、受信したデータを処理部11へ与える。なお本実施の形態においては、走査電子顕微鏡102から情報処理装置1へ通信を介してSEM画像の授受を行うものとするが、これに限るものではなく、例えばメモリカード等の記録媒体を介してSEM画像の授受が行われてもよい。
The
表示部14は、液晶ディスプレイ等を用いて構成されており、処理部11の処理に基づいて種々の画像及び文字等を表示する。本実施の形態において表示部14は、例えば走査電子顕微鏡102から取得したSEM画像の表示、及び、SEM画像からのパターンの検出結果の表示等を行う。
The
操作部15は、ユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。例えば操作部15は、機械式のボタン又は表示部14の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部15は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは情報処理装置1に対して取り外すことが可能な構成であってもよい。
The
なお記憶部12は、情報処理装置1に接続された外部記憶装置であってよい。また情報処理装置1は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。また情報処理装置1は、上記の構成に限定されず、例えば表示部14及び操作部15等を備えていなくてもよい。
The
また本実施の形態に係る情報処理装置1には、記憶部12に記憶されたプログラム12aを処理部11が読み出して実行することにより、画像取得部11a、特徴点抽出部11b、マッチング処理部11c、パターン検出部11d、状態判定部11e及び表示処理部11f等が、ソフトウェア的な機能部として処理部11に実現される。なお本図においては、処理部11の機能部として、SEM画像からパターンを検出する処理に関連する機能部を図示し、これ以外の処理に関する機能部は図示を省略している。
In the
画像取得部11aは、基板処理装置101による処理がなされた基板を走査電子顕微鏡102が撮影したSEM画像(対象画像)と、検出対象のパターンが写されたテンプレート画像とを取得する処理を行う。画像取得部11aは、通信部13にて走査電子顕微鏡102との通信を行うことにより、走査電子顕微鏡102が撮影した基板のSEM画像を取得する。
The
また画像取得部11aは、走査電子顕微鏡102から取得したSEM画像を表示部14に表示し、このSEM画像から一部の画像領域の指定をユーザから受け付けることによって、この一部の画像領域をテンプレート画像として取得する。画像取得部11aは、取得したテンプレート画像に関するタイトル情報及び説明情報等のテキスト情報の入力をユーザから受け付けて、受け付けた情報と共にテンプレート画をテンプレート画像記憶部12bに記憶する。また画像取得部11aは、テンプレート画像記憶部12bに記憶された複数のテンプレート画像を候補として表示部14に一覧表示し、表示した複数の候補の中からいずれか1つの選択を受け付け、選択された候補をテンプレート画像として取得する。ユーザはいずれの方法でテンプレート画像を指定するかを、例えばメニュー画面等において適宜に選択することができる。
The
特徴点抽出部11bは、画像取得部11aが取得したSEM画像及びテンプレート画像に対する特徴点の抽出処理を行う。特徴点の抽出処理は、は例えば画像に含まれるエッジ又はコーナー等の特徴的な点(画素)を特定する処理であり、例えばSIFT(Scale Invariant Feature Transformation)又はAKAZE(Accelerated-KAZE)等の既存の手法を用いて行うことができる。特徴点抽出部11bが画像から抽出する各特徴点には、その画像中における特徴点の位置(例えばx、yの座標)及びこの点の特徴を示す数値(特徴量)の情報が含まれる。
The feature
マッチング処理部11cは、特徴点抽出部11bが抽出したSEM画像の特徴点とテンプレート画像の特徴点とのマッチングを行う。マッチング処理部11cは、例えばテンプレート画像から抽出した各特徴点が、SEM画像から抽出した複数の特徴点のいずれに対応するかを、特徴点の位置及び特徴量を比較することで判定する。マッチング処理部11cは、テンプレート画像の全ての特徴点について、SEM画像の特徴点のいずれに対応するか(マッチするか)を示す情報を、マッチング処理の結果として出力する。
The matching
パターン検出部11dは、マッチング処理部11cによるマッチング処理の結果に基づいて、テンプレート画像に写されたパターンと同じパターンをSEM画像から検出する処理を行う。なお、テンプレート画像に写されたパターンと「同じ」パターンとは、完全に同一であることを意味するものではない。設計上は同一であるが、基板処理の各プロセスに起因して大きさ又は形状等が異なるものとなったパターンも「同じ」パターンに含まれる。まずパターン検出部11dは、テンプレート画像と同じサイズの画像領域であり、且つ、テンプレート画像の特徴点にマッチする特徴点が最も多く含まれる画像領域を、SEM画像中で特定する。パターン検出部11dは、SEM画像において特定した画像領域を含み、且つ、この画像領域よりも大きな画像領域(例えば、特定した画像領域の縦横に1.2倍の大きさの画像領域など)を、SEM画像から抽出する。
The
次いでパターン検出部11dは、テンプレート画像とSEM画像から抽出した画像領域とについて、特徴点抽出部11bによる特徴点の抽出及びマッチング処理部11cによる特徴点のマッチングを行わせ、特徴点のマッチング結果を取得する。パターン検出部11dは、再マッチングの結果を基に、抽出した画像領域においてマッチした特徴点を囲むバウンディングボックスを作成する。このバウンディングボックスに囲まれた部分が検出したパターンに相当し、パターン検出部11dは、バウンディングボックスに関する情報(例えば元のSEM画像におけるバウンディングボックスの位置などの情報)を、パターン検出の結果として出力する。
Then, the
パターン検出部11dは、上記の処理によりテンプレート画像と同じパターンをSEM画像から1つ検出することができる。パターン検出部11dは、同じSEM画像に対して同様の処理を繰り返し行うことで、SEM画像からパターンを複数検出する。このときにパターン検出部11dは、SEM画像に対して検出済みのパターンを囲むバウンディングボックスに相当する画像領域を、特徴点の抽出及び特徴点のマッチングの処理の対象外として処理を繰り返す。またパターン検出部11dは、繰り返しの各回において、検出したパターンを囲むバウンディングボックスの画像領域とテンプレート画像との類似度を算出し、類似度が予め定められた閾値以下となった場合に、パターン検出の繰り返しを終了する。なお類似度の算出はどのような方法で行われてもよく、例えば特徴点のマッチング処理においてマッチングの度合い等の情報が得られる場合にはこれを類似度として利用してもよい。
The
状態判定部11eは、パターン検出部11dがSEM画像から検出した各パターンの状態を判定する処理を行う。例えば状態判定部11eは、各パターンを囲むバウンディングボックスの情報を基に、各パターンの縦横のそれぞれの長さを測定し、測定した長さが予め定められた範囲内であるか否かに応じて、各パターンが正常(良品)又は異常(不良品)のいずれであるかを判定する。また例えば状態判定部11eは、テンプレート画像のパターンを正常パターンとみなして又はユーザから正常パターンの画像の入力を受け付けて、正常パターンと検出したパターンとの類似度が予め定められた閾値を超えるか否かに基づいて正常又は異常の判定を行うことができる。なお状態判定部11eによる各パターンの状態判定は、上記のものに限らず、どのような方法でどのような状態を判定してもよい。
The
表示処理部11fは、パターン検出部11dによるSEM画像からのパターンの検出結果、及び/又は、状態判定部11eによる各パターンの状態判定結果等の情報を表示部14に表示する処理を行う。例えば表示処理部11fは、走査電子顕微鏡102から取得したSEM画像に対して、パターン検出部11dが検出した各パターンを囲むバウンディングボックスを重畳した画像を生成して表示部14に表示する。また例えば表示処理部11fは、SEM画像に重畳した各パターンのバウンディングボックスについて、状態判定部11eが異常と判定したパターンに対応するバウンディングボックスを強調表示(例えば色を変える又は点滅させる等)することで、異常なパターンをユーザに通知する。
The
<パターン検出処理>
図3は、テンプレート画像の取得方法の一例を説明するための模式図である。本実施の形態に係る情報処理装置1は、例えば走査電子顕微鏡102から取得した対象の基板のSEM画像を表示部14に表示し、表示したSEM画像に対するユーザからの領域の指定を受け付ける。情報処理装置1は、例えば操作部15のマウスに対する操作に基づき、SEM画像に対する四角形の画像領域の選択を受け付ける(図3上段を参照)。情報処理装置1は、ユーザが選択した四角形の画像領域をテンプレート画像として取得する(図3下段左を参照)。また情報処理装置1は、元のSEM画像からテンプレート画像に相当する画像領域を取り除いた画像を、以降の処理においてパターンを検出する対象のSEM画像として扱う(図3下段右を参照)。
<Pattern detection process>
3 is a schematic diagram for explaining an example of a method for acquiring a template image. The
情報処理装置1は、ユーザの入力に基づいて選択したテンプレート画像を、テンプレート画像記憶部12bに記憶する。情報処理装置1は、走査電子顕微鏡102から取得したSEM画像からユーザの入力に基づいてテンプレート画像を取得することに代えて、テンプレート画像記憶部12bに記憶されたテンプレート画像を例えば一覧表示し、表示した複数のテンプレート画像の中からいずれか1つの選択をユーザから受け付けて、選択されたテンプレート画像を以降のパターン検出の処理に用いてもよい。なお情報処理装置1がいずれの方法でテンプレート画像の取得を行うかは、例えばユーザがメニュー画面などにおいて適宜に選択し得る。
The
図4~図6は、パターン検出処理の一例を説明するための模式図である。処理対象となるSEM画像及びテンプレート画像を取得した情報処理装置1は、SEM画像及びテンプレート画像のそれぞれについて、特徴点を抽出する処理を行う。図4上段には、SEM画像及びテンプレート画像に対して抽出された特徴点を重畳した画像が、特徴点の抽出結果の一例として示されている。各特徴点は、SEM画像及びテンプレート画像における座標の情報と、各点の特徴を示す特徴量の情報とを有している。情報処理装置1は、例えばSIFT又はAKAZE等の既存の特徴点抽出手法を用いて、SEM画像及びテンプレート画像から特徴点を抽出することができる。
FIGS. 4 to 6 are schematic diagrams for explaining an example of pattern detection processing. The
次いで情報処理装置1は、SEM画像の特徴点とテンプレート画像の特徴点とのマッチング処理を行う。マッチング処理において情報処理装置1は、例えば各特徴点の位置及び特徴量に基づいて、テンプレート画像の各特徴点が、SEM画像の複数の特徴点のいずれに対応するか判定する。図4下段には、SEM画像及びテンプレート画像を並べて表示し、SEM画像の特徴点とテンプレート画像の特徴点とを直線で結ぶことで、特徴点のマッチング処理の結果の一例が示されている。
Then, the
マッチング処理の結果に基づいて情報処理装置1は、テンプレート画像の特徴点にマッチしたSEM画像の複数の特徴点をできるだけ多く含むように、SEM画像からテンプレート画像と同じサイズの画像領域を特定する。次いで情報処理装置1は、特定したこの画像領域よりも大きな画像領域(例えば特定した画像領域を上下左右に所定量だけ拡大した画像領域)を、SEM画像から抽出する。図5上段には、マッチング処理の結果に基づいてSEM画像から抽出される画像領域の一例が四角枠で囲まれて示されている。
Based on the results of the matching process, the
情報処理装置1は、SEM画像から抽出した画像領域とテンプレート画像とに対して、特徴点を抽出する処理と抽出した特徴点のマッチング処理とを再び行う。情報処理装置1は、テンプレート画像の特徴点にマッチした画像領域中の複数の特徴点をできるだけ多く含むように、この画像領域からテンプレート画像と同じサイズの画像領域を更に特定する。図5下段には、情報処理装置1が最終的に特定した画像領域の一例が示されている。情報処理装置1は、特定した画像領域を、テンプレート画像と同じパターンが写された画像領域とし、この画像領域を囲むバウンディングボックスの座標をパターンの検出結果として出力する。
The
SEM画像から1つのパターンを検出した情報処理装置1は、検出したパターンに対応する画像領域を基のSEM画像から除外する。図6上段には、検出済みの領域を除外したSEM画像の一例が示されている。情報処理装置1は、検出済みのパターンの画像領域が除外されたSEM画像を対象に、上述のパターン検出の手順を繰り返し行うことによって、1つのSEM画像から複数のパターンを検出することができる。図6下段には、パターンの検出を繰り返し行い、検出された複数のパターンに対応する複数の画像領域が除外されたSEM画像の一例が示されている。
After detecting one pattern from an SEM image, the
情報処理装置1は、上述のようにSEM画像からのパターンの検出を繰り返し行い、パターンを検出する毎に、検出したパターンとテンプレート画像のパターンとの類似度を算出する。情報処理装置1は、類似度が所定の閾値以下となった場合、即ち検出したパターンがテンプレート画像のパターンに類似していないと判定した場合、パターン検出の繰り返しを終了する。
The
情報処理装置1は、SEM画像から検出した各パターンについて、例えば異常の有無などの状態判定を行う。例えば情報処理装置1は、検出した各パターンについてバウンディングボックスを基に長さ又は幅等の距離を測定し、測定した距離が正常範囲内であるか否かを判定することにより、各パターンが正常又は異常のいずれであるかを判定することができる。また例えば情報処理装置1は、テンプレート画像のパターンと検出した各パターンとの類似度をそれぞれ算出し、類似度が閾値を超えるかを判定することにより、各パターンが正常又は異常のいずれであるかを判定することができる。情報処理装置1は、これら以外の種々の方法で、検出したパターンの状態を判定してよい。
The
情報処理装置1は、SEM画像からのパターンの検出結果と、検出したパターンの状態判定結果とを表示部14に表示する。情報処理装置1は、例えば走査電子顕微鏡102から取得した対象のSEM画像に対して検出したパターンを囲むバウンディングボックスを重畳した画像を表示すると共に、異常と判定したパターンに対応するバウンディングボックスを強調表示することで、SEM画像中のパターンの所在と各パターンの状態とをユーザに通知する。
The
図7は、実施の形態1に係る情報処理装置1が行うパターン検出処理の手順の一例を示すフローチャートである。実施の形態1に係る情報処理装置1の処理部11の画像取得部11aは、通信部13にて走査電子顕微鏡102との間で通信を行い、走査電子顕微鏡102により撮影された対象の基板のSEM画像を取得する(ステップS1)。
FIG. 7 is a flowchart showing an example of the procedure of the pattern detection process performed by the
画像取得部11aは、例えばステップS1にて取得したSEM画像を表示部14に表示し、SEM画像に対する画像領域の選択操作を操作部15にて受け付けることにより、SEM画像から検出対象のパターンが写されたテンプレート画像を取得する(ステップS2)。なお画像取得部11aは、テンプレート画像記憶部12bに記憶された複数のテンプレート画像の中から1つのテンプレート画像の選択をユーザから受け付けることにより、検索対象とするパターンが写されたテンプレート画像を取得してもよい。画像取得部11aは、ステップS2にて取得したテンプレート画像を、テンプレート画像記憶部12bに記憶する(ステップS3)。
The
処理部11の特徴点抽出部11bは、ステップS1にて取得したSEM画像、及び、ステップS2にて取得したテンプレート画像からそれぞれ特徴点を抽出する(ステップS4)。処理部11のマッチング処理部11cは、ステップS4にて抽出した特徴点を基に、テンプレート画像の特徴点がSEM画像の特徴点のいずれに対応するかを判定する特徴点のマッチング処理を行う(ステップS5)。
The feature
処理部11のパターン検出部11dは、ステップS5のマッチング処理の結果に基づいて、テンプレート画像と同じサイズの画像領域であり、且つ、テンプレート画像の特徴点にマッチする特徴点が最も多く含まれる画像領域を特定し、特定した画像領域の定数倍の画像領域をSEM画像から抽出する(ステップS6)。特徴点抽出部11bは、ステップS6にて抽出した画像領域について特徴点の再抽出を行う(ステップS7)。マッチング処理部11cは、テンプレート画像の特徴点と、ステップS7にて再抽出した画像領域の特徴点とについて再マッチングを行う(ステップS8)。パターン検出部11dは、ステップS8の再マッチングの結果に基づいて、例えばマッチした特徴点を囲むようにバウンディングボックスを作成することで、検出したパターンに対するバウンディングボックスを作成する(ステップS9)。
The
パターン検出部11dは、テンプレート画像のパターンとステップS9にて作成したバウンディングボックスに囲まれたパターンとの類似度を算出して、この類似度が予め定められた閾値以下であるか否かを判定する(ステップS10)。類似度が閾値を超える場合(S10:NO)、パターン検出部11dは、処理対象のSEM画像から検出したパターンに相当する領域を削除し(ステップS11)、ステップS4へ処理を戻し、検出したパターンの領域を削除したSEM画像を処理対象としてステップS4~S10の処理を行う。
The
類似度が閾値以下の場合(S10:YES)、処理部11の状態判定部11eは、SEM画像から検出した各パターンについて正常又は異常のいずれであるか等の状態判定を行う(ステップS12)。処理部11の表示処理部11fは、ステップS9にて作成したバウンディングボックスにより示されるパターンの検出結果と、ステップS12にて行った各パターンの状態判定の結果とを表示部14に表示して(ステップS13)、処理を終了する。
If the similarity is equal to or less than the threshold (S10: YES), the
<まとめ>
以上の構成の本実施の形態に係る情報処理システムでは、基板処理装置101によるエッチング等の処理がなされた基板を走査電子顕微鏡102にて撮影し、撮影により得られた対象画像(SEM画像)から基板に形成された所定のパターンを検出する処理を情報処理装置1が行う。情報処理装置1は、検出対象のパターンが写されたテンプレート画像を取得し、対象画像及びテンプレート画像からそれぞれ特徴点などの特徴量を抽出し、テンプレート画像の特徴量と対象画像の特徴量との比較結果に基づいて、対象画像から検出対象のパターンを検出する。これにより本実施の形態に係る情報処理システムは、検出対象のパターンを予め機械学習することなく、様々なパターンを対象画像から検出することが期待できる。
<Summary>
In the information processing system according to the present embodiment having the above configuration, a substrate that has been subjected to processing such as etching by the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、テンプレート画像及び対象画像からそれぞれ特徴点を抽出し、テンプレート画像の特徴点と対象画像の特徴点とのマッチングを行い、マッチングの結果に基づいて対象画像から検出対象のパターンを検出する。特徴点の抽出にはSIFT等の既存の手法を用いることができ、本実施の形態に係る情報処理システムは、検出対象のパターンを予め機械学習することなく、様々なパターンを対象画像からより精度よく検出することが期待できる。
In addition, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、特徴点のマッチングの結果に基づいて対象画像からテンプレート画像より大きいサイズの画像領域を抽出し、この画像領域から特徴点を再抽出し、テンプレート画像の特徴点と画像領域の特徴点とのマッチングを行って、この画像領域から検出対象のパターンを検出する。これにより本実施の形態に係る情報処理システムは、対象画像から検出対象のパターンが存在する可能性が高い画像領域をまず抽出し、この画像領域の中からパターンを検出することができるため、より精度よく対象画像から検出対象のパターンを毛出することが期待できる。
Furthermore, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、検出したパターンを除く対象画像から特徴点を抽出し、抽出した特徴点とテンプレート画像の特徴点とのマッチングを行い、マッチングの結果に基づいて画像領域を抽出し、抽出した画像領域の特徴点とテンプレート画像の特徴点との再マッチングを行い、再マッチングの結果に基づいて対象画像からパターンを検出する一連の処理を繰り返し行うことによって、対象画像から複数のパターンを検出する。これにより本実施の形態に係る情報処理システムは、1つの対象画像に同様のパターンが複数配置されている場合に、これら複数のパターンを検出することができる。
In addition, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、対象画像から検出したパターンとテンプレート画像のパターンとの類似度を算出し、類似度が閾値以下になった場合に上記の繰り返し処理を終了する。これにより本実施の形態に係る情報処理システムは、類似度が低いパターンを検出対象のパターンとして検出することを防止し、パターンの誤検出を防止することが期待できる。
Furthermore, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、走査電子顕微鏡102から取得した対象画像から検出対象のパターンが写された画像領域の選択操作をユーザから受け付けて、受け付けた画像領域をテンプレート画像とする。これにより本実施の形態に係る情報処理システムは、例えば同様のパターンが複数配された対象画像からいずれか1つのパターンをユーザの選択に基づいて取得し、テンプレート画像として用いて対象画像から同様のパターンを検出することが期待できる。
In addition, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、テンプレート画像をテンプレート画像記憶部12bに記憶し、テンプレート画像記憶部12bに記憶した複数のテンプレート画像からの選択を受け付け、選択されたテンプレート画像を基に対象画像からパターンを検出する。これにより本実施の形態に係る情報処理システムでは、過去に検出したパターンと同様のパターンを別の対象画像から検出する場合などに、ユーザは記憶部に記憶されたテンプレート画像を再利用することができるため、利便性の向上が期待できる。
Furthermore, in the information processing system according to this embodiment, the
また本実施の形態に係る情報処理システムでは、情報処理装置1が、対象画像から検出した各パターンの状態判定について例えば正常又は異常のいずれであるか等の状態判定を行う。これにより本実施の形態に係る情報処理システムは、対象画像に含まれるパターンの検出結果に加えて、検出した各パターンの状態に関する情報をユーザに提供することが期待できる。
Furthermore, in the information processing system according to this embodiment, the
なお本実施の形態においては、例えば図3~図6において基板を垂直方向にエッチングして形成した一又は複数のホールが写されたSEM画像を模式化したものを図示し、このホールを検出対象のパターンとして情報処理装置1が行う処理を説明したが、検出対象のパターンはこのようなホールに限らない。パターンは、例えば基板上に複数形成されるトランジスタもしくはキャパシタ等の機能素子、又は、薄膜等の種々の形成物であってよい。以下の実施の形態についても同様である。
In this embodiment, for example, in Figures 3 to 6, a schematic SEM image of one or more holes formed by etching a substrate in the vertical direction is shown, and the process performed by the
[実施の形態2]
実施の形態2においては、テンプレート画像に基づいてSEM画像から1つ目のパターンを検出した後、2つ目以降のパターンを検出する繰り返し処理の変形例を説明する。実施の形態2に係る情報処理装置1は、走査電子顕微鏡102から取得したSEM画像及び検出対象のパターンが写されたテンプレート画像を取得し、両画像の特徴点のマッチング結果に基づいて、SEM画像から1つ目のパターンを検出するまでの処理を、上述の実施の形態1に係る情報処理装置1による処理と同じ手順で行う。
[Embodiment 2]
In the second embodiment, a modified example of a repeating process for detecting a first pattern from an SEM image based on a template image and then detecting a second and subsequent patterns will be described. The
SEM画像から1つ目のパターンを検出した後、実施の形態2に係る情報処理装置1は、検出したパターンの画像(即ち、検出結果として得られるバウンディングボックス内の画像)を新たなテンプレート画像として旧テンプレート画像と置き換える。実施の形態2に係る情報処理装置1は、この新たなテンプレート画像を用いて、いわゆるテンプレートマッチングの処理を行うことによって、SEM画像から2つ目以降のパターンを検出する。
After detecting the first pattern from the SEM image, the
テンプレートマッチングは、対象画像(SEM画像)からテンプレート画像と同サイズの画像領域を抽出し、抽出した画像とテンプレート画像との類似度が閾値を超える場合に、この画像領域に検出対象のパターンが写されていると判断する手法である。対象画像からの画像領域の抽出位置を移動させて同様の類似度判定を繰り返し、対象画像の全ての位置で画像領域の抽出及び類似度の判定を行うことで、対象画像から一又は複数のパターンを検出することができる。 Template matching is a technique in which an image area of the same size as a template image is extracted from a target image (SEM image), and if the similarity between the extracted image and the template image exceeds a threshold, it is determined that the pattern to be detected is captured in this image area. By moving the extraction position of the image area from the target image and repeating the same similarity judgment, and extracting image areas and judging the similarity at all positions in the target image, it is possible to detect one or more patterns from the target image.
図8は、実施の形態2に係る情報処理装置1が行うパターン検出処理の手順の一例を示すフローチャートである。実施の形態2に係る情報処理装置1の処理部11は、図7に示したフローチャートの手順と同様に、対象基板のSEM画像の取得(ステップS1)、テンプレート画像の取得(ステップS2)、テンプレート画像の記憶(ステップS3)、特徴点の抽出(ステップS4)、特徴点のマッチング処理(ステップS5)、SEM画像からの画像領域の抽出(ステップS6)、特徴点の再抽出(ステップS7)、特徴点の再マッチング(ステップS8)、検出したパターンに対するバウンディングボックスの作成(ステップS9)を行う。なお実施の形態2に係る情報処理装置1が行うステップS1~S9の処理は、図7に示したステップS1~S9の処理と同じであるため、図8においてはステップS1~S9の処理の一部の図示を省略している。
FIG. 8 is a flowchart showing an example of the procedure of the pattern detection process performed by the
処理部11のパターン検出部11dは、ステップS1にて取得したSEM画像から、ステップS1~S9の処理にて検出したパターンに相当する領域を削除する(ステップS31)。またパターン検出部11dは、ステップS1~S9の処理にて検出したパターンに相当する画像を新たなテンプレート画像として置き換える(ステップS32)。
The
次いでパターン検出部11dは、ステップS31にて検出したパターンに相当する領域を削除したSEM画像から、テンプレート画像と同じサイズの画像領域を抽出する(ステップS33)。パターン検出部11dは、ステップS33にて抽出した画像領域と、テンプレート画像との類似度を算出する(ステップS34)。パターン検出部11dは、ステップS34にて算出した類似度が予め定められた閾値を超えるか否かを判定する(ステップS35)。類似度が閾値を超える場合(S35:YES)、パターン検出部11dは、この画像領域に検出対象のパターンが写されているものとし、SEM画像におけるこのパターンの画像領域の位置を記憶して(ステップS36)、ステップS37へ処理を進める。類似度が閾値を超えない場合(S35:NO)、パターン検出部11dは、この画像領域に検出対象のパターンが写されていないものとし、ステップS37へ処理を進める。パターン検出部11dは、画像領域を抽出してテンプレート画像との類似度を判定する処理を、SEM画像の全ての位置について終了したか否かを判定する(ステップS37)。これらの処理を全ての位置について終了していない場合(S37:NO)、パターン検出部11dは、ステップS32へ処理を戻し、抽出位置を移動させてステップS32~S37の処理を繰り返し行う。
Next, the
これらの処理を全ての位置について終了した場合(S37:YES)、処理部11の状態判定部11eは、ステップS36にて記憶した位置を基に、SEM画像から検出した各パターンについて、正常又は異常のいずれであるか等の状態判定を行う(ステップS38)。処理部11の表示処理部11fは、SEM画像から検出した各パターンを囲むバウンディングボックスと、ステップS38にて行った各パターンの状態判定の結果とを表示部14に表示して(ステップS39)、処理を終了する。
When these processes have been completed for all positions (S37: YES), the
以上の構成の実施の形態2に係る情報処理システムは、情報処理装置1が、SEM画像から検出したパターンに基づいてテンプレート画像を更新し、SEM画像からテンプレート画像と同じサイズの画像領域を複数抽出し、更新したテンプレート画像と抽出した各画像領域との類似度を算出し、算出した類似度に基づいて検出対象のパターンが写された画像領域を検出する。これにより本実施の形態に係る情報処理システムは、例えば同様のパターンが複数配された対象画像からこれらのパターンを精度よく検出することが期待できる。
In the information processing system according to the second embodiment configured as described above, the
なお実施の形態2に係る情報処理システムのその他の構成は、実施の形態1に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Note that other configurations of the information processing system according to the second embodiment are similar to those of the information processing system according to the first embodiment, so similar parts are given the same reference numerals and detailed descriptions are omitted.
[実施の形態3]
実施の形態3に係る情報処理システムでは、情報処理装置1が、走査電子顕微鏡102から取得したSEM画像からテンプレート画像の候補をユーザに対して複数提示し、候補からの選択を受け付けることによってテンプレート画像を取得する。実施の形態3に係る情報処理装置1は、走査電子顕微鏡102から取得したSEM画像について特徴点の抽出を行い、抽出した特徴点に基づいてSEM画像から適宜の画像領域を抽出することで、複数のテンプレート画像の候補を作成する。
[Embodiment 3]
In the information processing system according to the third embodiment, the
基板に同じ形状のパターンが繰り返して複数形成されている場合、SEM画像から抽出できる複数の特徴点には、類似する特徴点の配置が繰り返される部分が含まれ得る。実施の形態3に係る情報処理装置1は、SEM画像から抽出した複数の特徴点の全体の中から、このような類似する特徴点の配置の繰り返しを探索する。情報処理装置1は、探索結果を基に繰り返される特徴点の配置のいずれか1箇所を選択し、この配置に含まれる複数の特徴点を含む矩形の画像領域を抽出してテンプレート画像の候補とすることができる。情報処理装置1は、1つのSEM画像から複数の候補を抽出してよい。なお情報処理装置1による候補の抽出方法は、上記の方法に限らず、どのような方法が採用されてもよい。
When multiple patterns of the same shape are repeatedly formed on a substrate, the multiple feature points that can be extracted from the SEM image may include a portion where similar feature point arrangements are repeated. The
情報処理装置1は、SEM画像から抽出して作成したテンプレート画像の複数の候補を、例えば表示部14に一覧表示する。情報処理装置1は、一覧表示した複数の候補の中からいずれか1つの候補を選択するユーザの操作を操作部15にて受け付け、選択された候補をテンプレート画像として取得し、このテンプレート画像に写されたパターンをSEM画像から検出する処理を行う。
The
図9は、実施の形態3に係る情報処理装置1が行うパターン検出処理の手順の一例を示すフローチャートである。実施の形態3に係る情報処理装置1が行うパターン検出処理の手順は、図7に示した実施の形態1に係る情報処理装置1が行うパターン検出処理の手順においてユーザの入力に基づいてテンプレート画像を取得するステップS2に代えて、情報処理装置1がSEM画像からテンプレート画像の候補をユーザに提示してテンプレート画像を取得するステップS51~S52を導入したものである。実施の形態3に係る情報処理装置1が行うパターン検出処理のうち、ステップS3以降は図7に示すものと同じであるため、図9においてステップS3~S13の処理の一部の図示を省略している。
FIG. 9 is a flowchart showing an example of the procedure of the pattern detection process performed by the
実施の形態3に係る情報処理装置1の処理部11の画像取得部11aは、走査電子顕微鏡102により撮影された対象の基板のSEM画像を取得する(ステップS1)。処理部11の特徴点抽出部11bは、ステップS1にて取得したSEM画像から特徴点を抽出する(ステップS51)。画像取得部11aは、ステップS2にて抽出したSEM画像の特徴点を基に、例えば特徴点の特定の配置の繰り返しを探索する等の処理を行って、SEM画像から適宜の画像領域を抽出することで、テンプレート画像の候補を作成する(ステップS52)。処理部11の表示処理部11fは、ステップS52にてSEM画像から抽出して作成した一又は複数のテンプレート画像の候補を表示部14に表示する(ステップS53)。画像取得部11aは、ステップS53にて表示した候補の中からいずれか1つの候補の選択を操作部15にて受ける蹴ることにより、テンプレート画像の選択をユーザから受け付ける(ステップS54)。
The
画像取得部11aは、ステップS54にて取得したテンプレート画像をテンプレート画像記憶部12bに記憶する(ステップS3)。このステップS3以降の処理は、図7に示したフローチャートと同じであるため、詳細な説明は省略する。
The
以上の構成の実施の形態3に係る情報処理システムは、情報処理装置1が、対象のSEM画像から特徴点を抽出し、抽出した特徴点に基づいてSEM画像からテンプレート画像の候補を作成する。情報処理装置1は、作成した候補を表示部14に表示して、複数の候補からの選択操作をユーザから受け付け、選択を受け付けた候補をテンプレート画像としてSEM画像からパターンの検出を行う。これにより本実施の形態に係る情報処理システムは、ユーザによるテンプレート画像の作成を支援することができるため、ユーザの利便性を向上することが期待できる。
In the information processing system according to the third embodiment configured as described above, the
なお実施の形態3に係る情報処理システムのその他の構成は、実施の形態1,2に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。
Note that other configurations of the information processing system according to
[実施の形態4]
実施の形態4に係る情報処理システムでは、情報処理装置1が、ユーザによる自然言語の入力を受け付け、入力された自然言語に基づいて複数の候補の中からテンプレート画像を選択する。入力を受け付ける自然言語は、例えば日本語又は英語等の言語による単語又は文章等の文字列である。自然言語を扱うために実施の形態4に係る情報処理装置1は、自然言語を解釈するように予め機械学習がなされたLLM(Large Language Model、大規模言語モデル)を用いる。なおLLMは情報処理装置1にて動作してもよく、情報処理装置1とは異なる装置、例えば遠隔のサーバ装置等において動作してもよい。
[Fourth embodiment]
In the information processing system according to the fourth embodiment, the
実施の形態4に係る情報処理システムにおいてユーザは、例えば「ホール」又は「マスク」等の自然言語を情報処理装置1に対して入力することで、「ホール」又は「マスク」等が写された候補の画像を表示させることができ、これらの候補の中からいずれかを選択する操作を行うことでテンプレート画像を決定することができる。またユーザは、例えば「細長いホール」又は「サイズが大きなマスク」等のように、任意の修飾語を付してテンプレート画像の候補を情報処理装置1に表示させることができる。
In the information processing system according to the fourth embodiment, a user can input natural language such as "hole" or "mask" to the
実施の形態4に係る情報処理装置1は、走査電子顕微鏡102から取得したSEM画像から、実施の形態3にて説明した手法によりテンプレート画像の候補を抽出し、複数の候補の中から入力された自然言語に対応する候補を選択し、選択した候補を一覧表示してユーザに提示する。また情報処理装置1は、テンプレート画像記憶部12bに記憶されたテンプレート画像の中から、入力された自然言語に対応するテンプレート画像を選択し、選択したテンプレート画像を候補として一覧表示してユーザに提示してもよい。
The
情報処理装置1は、例えばユーザが入力した自然言語をLLMにて特徴量ベクトルに変換し、テンプレート画像の候補となる複数の画像を予め機械学習がなされた学習モデル(エンコーダ)にて特徴量ベクトルにそれぞれ変換する。情報処理装置1は、入力された自然言語の特徴量ベクトルと、各候補の特徴量ベクトルとの類似度をそれぞれ算出し、類似度が高いものから順に所定数の候補を選択してユーザに提示することにより、ユーザの入力した自然言語に対応する候補をユーザに提示することができる。画像を特徴量ベクトルに変換する学習モデルは、例えば予め収集されたテンプレート画像と、このテンプレート画像のパターンを表現した自然言語(又はこの自然言語をLLMで変換した特徴量ベクトル)とを対応付けた学習用のデータを用いた機械学習により、予め生成され得る。なお上記のLLMを用いて自然言語に対応する候補をユーザに提示する方法は、一例であってこれに限るものではなく、これ以外のどのような方法が採用されてもよい。
The
図10は、実施の形態4に係る情報処理装置1が行うパターン検出処理の手順の一例を示すフローチャートである。実施の形態4に係る情報処理装置1が行うパターン検出処理の手順は、図7に示した実施の形態1に係る情報処理装置1が行うパターン検出処理の手順においてユーザの入力に基づいてテンプレート画像を取得するステップS2に代えて、ユーザからの自然言語の入力に応じたテンプレート画像の候補を提示してテンプレート画像を取得するステップS71~S77を導入したものである。実施の形態4に係る情報処理装置1が行うパターン検出処理のうち、ステップS3以降は図7に示すものと同じであるため、図10においてステップS3~S13の処理の一部の図示を省略している。
FIG. 10 is a flowchart showing an example of the procedure of the pattern detection process performed by the
実施の形態4に係る情報処理装置1の処理部11の画像取得部11aは、走査電子顕微鏡102により撮影された対象の基板のSEM画像を取得する(ステップS1)。処理部11の特徴点抽出部11bは、ステップS1にて取得したSEM画像から特徴点を抽出する(ステップS71)。画像取得部11aは、ステップS71にて抽出したSEM画像の特徴点を基に、例えば特徴点の特定の配置の繰り返しを探索する等の処理を行って、テンプレート画像の候補を作成する(ステップS72)。
The
画像取得部11aは、例えばキーボード等の操作部15を利用したユーザの自然言語の入力を受け付ける(ステップS73)。画像取得部11aは、入力を受け付けた自然言語をLLMへ入力することにより、LLMによる自然言語の解釈を行う(ステップS74)。画像取得部11aは、ステップS74にて行ったLLMによる自然言語の解釈の結果に基づき、ステップS72にて作成した一又は複数の候補の中から、自然言語の入力に対応した一又は複数の候補を選択する(ステップS75)。処理部11の表示処理部11fは、ステップS75にて選択した一又は複数の候補を表示部14に表示する(ステップS76)。画像取得部11aは、ステップS76にて表示した候補の中からいずれか1つの候補の選択を操作部15にて受ける蹴ることにより、テンプレート画像の選択をユーザから受け付ける(ステップS77)。
The
画像取得部11aは、ステップS77にて取得したテンプレート画像をテンプレート画像記憶部12bに記憶する(ステップS3)。このステップS3以降の処理は、図7に示したフローチャートと同じであるため、詳細な説明は省略する。
The
以上の構成の実施の形態4に係る情報処理システムは、情報処理装置1が、検出対象のパターンに関する自然言語情報をユーザからの入力に基づいて取得し、取得した自然言語情報に応じたテンプレート画像の候補をSEM画像から作成する。情報処理装置1は、作成した候補を表示部14に表示して、複数の候補からの選択操作をユーザから受け付け、選択を受け付けた候補をテンプレート画像としてSEM画像からパターンの検出を行う。これにより実施の形態4に係る情報処理システムは、テンプレート画像の作成に関するユーザの利便性をより向上することが期待できる。
In the information processing system according to the fourth embodiment configured as described above, the
なお実施の形態4においては、LLMを用いることで自然言語に応じた候補の選択を行っているが、自然言語に応じた候補の選択方法はLLMを用いる方法に限るものではない。例えば、候補となり得る画像に対して、この画像に写された物の特徴等を示す名称又は単語等の自然言語をタグとして付与しておき、ユーザから入力された自然言語を基に対応するタグを検索し、検索に合致したタグが付された画像をテンプレート画像の候補とすることができる。 In the fourth embodiment, candidates are selected according to natural language by using LLM, but the method of selecting candidates according to natural language is not limited to using LLM. For example, natural language such as names or words indicating the characteristics of the object depicted in the image can be added as tags to images that can be candidates, and corresponding tags can be searched for based on the natural language input by the user, and images with tags that match the search can be used as candidates for template images.
なお実施の形態4に係る情報処理システムのその他の構成は、実施の形態1~3に係る情報処理システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。
Note that other configurations of the information processing system according to
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered limiting. The scope of the present disclosure is indicated by the claims, not by the meaning described above, and is intended to include all modifications within the meaning and scope of the claims.
各実施形態に記載した事項は相互に組み合わせることが可能である。また、請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも1つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載してもよい。 The matters described in each embodiment can be combined with each other. Furthermore, the independent claims and dependent claims described in the claims can be combined with each other in any and all combinations, regardless of the citation format. Furthermore, the claims use a format in which a claim cites two or more other claims (multi-claim format), but this is not limited to this. They may also be written in a format in which a multiple claim cites at least one other multiple claim (multi-multi-claim).
1 情報処理装置(コンピュータ)
11 処理部
11a 画像取得部
11b 特徴点抽出部
11c マッチング処理部
11d パターン検出部
11e 状態判定部
11f 表示処理部
12 記憶部
12a プログラム
12b テンプレート画像記憶部
13 通信部
14 表示部
15 操作部
99 記録媒体
101 基板処理装置
102 走査電子顕微鏡
1. Information processing device (computer)
REFERENCE SIGNS
Claims (13)
前記コンピュータに、
検出対象のパターンが写されたテンプレート画像を取得し、
前記テンプレート画像及び前記対象画像からそれぞれ特徴量を抽出し、
前記テンプレート画像の特徴量と前記対象画像の特徴量との比較結果に基づいて、前記対象画像から検出対象のパターンを検出する
処理を実行させる、コンピュータプログラム。 A computer program for causing a computer to execute a process of detecting a predetermined pattern formed on a substrate from a target image obtained by capturing the substrate that has been processed by a substrate processing apparatus, the computer program comprising:
The computer includes:
A template image showing the pattern to be detected is obtained.
Extracting features from the template image and the target image, respectively;
a process of detecting a detection target pattern from the target image based on a comparison result between a feature amount of the template image and a feature amount of the target image.
前記テンプレート画像の特徴点と前記対象画像の特徴点とのマッチングを行い、
前記マッチングの結果に基づいて、前記対象画像から検出対象のパターンを検出する
請求項1に記載のコンピュータプログラム。 Extracting feature points from the template image and the target image, respectively;
Matching feature points of the template image with feature points of the target image;
The computer program according to claim 1 , further comprising: detecting a detection target pattern from the target image based on a result of the matching.
前記テンプレート画像の特徴点と前記画像領域の特徴点とのマッチングを行い、
前記マッチングの結果に基づいて、前記画像領域から検出対象のパターンを検出する、
請求項2に記載のコンピュータプログラム。 extracting an image area from the target image that is larger than the template image based on the matching result;
Matching the feature points of the template image with the feature points of the image region;
detecting a detection target pattern from the image region based on a result of the matching;
3. A computer program according to claim 2.
請求項3に記載のコンピュータプログラム。 extracting feature points of the target image excluding the detected pattern, matching the extracted feature points with feature points of the template image, extracting an image region based on the matching result, matching the feature points of the template image with feature points of the image region, and detecting a pattern based on the matching result, thereby detecting a plurality of target patterns from the target image;
4. A computer program according to claim 3.
前記類似度が閾値以下になった場合に検出の繰り返しを終了する、
請求項4に記載のコンピュータプログラム。 Calculating a similarity between the pattern detected from the target image and the pattern captured in the template image;
When the similarity becomes equal to or less than a threshold, the repetition of detection is terminated.
5. A computer program according to claim 4.
前記対象画像から複数の画像領域を抽出し、
前記テンプレート画像と各画像領域との類似度に基づいて、前記複数の画像領域から検出対象のパターンが写された画像領域を検出する、
請求項1に記載のコンピュータプログラム。 updating the template image based on the detected pattern;
Extracting a plurality of image regions from the target image;
detecting an image area, into which a detection target pattern is captured, from the plurality of image areas based on a similarity between the template image and each image area;
2. The computer program product of claim 1.
受け付けた前記画像領域を前記テンプレート画像とする、
請求項1に記載のコンピュータプログラム。 Accepting a selection operation of an image area in which a detection target pattern is captured from the target image;
The received image region is set as the template image.
2. The computer program product of claim 1.
抽出した特徴量に基づいて前記対象画像から複数のテンプレート画像の候補を抽出し、
抽出した複数の前記候補からの選択操作を受け付け、
受け付けた候補を前記テンプレート画像とする、
請求項1に記載のコンピュータプログラム。 Extracting features from the target image;
Extracting a plurality of template image candidates from the target image based on the extracted feature amount;
Accepting a selection operation from the extracted multiple candidates;
The accepted candidate is set as the template image.
2. The computer program product of claim 1.
自然言語情報に応じたテンプレート画像の候補を前記対象画像から抽出し、
抽出した複数の前記候補からの選択操作を受け付け、
受け付けた候補を前記テンプレート画像とする、
請求項1に記載のコンピュータプログラム。 acquiring natural language information regarding the detection target;
extracting template image candidates from the target image according to the natural language information;
Accepting a selection operation from the extracted multiple candidates;
The accepted candidate is set as the template image.
2. The computer program product of claim 1.
前記記憶部に記憶された複数の前記テンプレート画像からの選択操作を受け付け、
受け付けた前記テンプレート画像を基に前記対象画像から検出対象のパターンを検出する、
請求項7から請求項9までのいずれか1つに記載のコンピュータプログラム。 storing the template image in a storage unit;
accepting a selection operation from among the plurality of template images stored in the storage unit;
detecting a detection target pattern from the target image based on the received template image;
A computer program according to any one of claims 7 to 9.
請求項1に記載のコンピュータプログラム。 determining a state of a pattern detected from the target image;
2. The computer program product of claim 1.
前記情報処理装置が、
検出対象のパターンが写されたテンプレート画像を取得し、
前記テンプレート画像及び前記対象画像からそれぞれ特徴量を抽出し、
前記テンプレート画像の特徴量と前記対象画像の特徴量との比較結果に基づいて、前記対象画像から検出対象のパターンを検出する、
情報処理方法。 1. An information processing method for detecting a predetermined pattern formed on a substrate from a target image captured by an information processing apparatus of the substrate that has been processed by the substrate processing apparatus, comprising:
The information processing device,
A template image showing the pattern to be detected is obtained.
Extracting features from the template image and the target image, respectively;
detecting a detection target pattern from the target image based on a comparison result between the feature amount of the template image and the feature amount of the target image;
Information processing methods.
前記処理部が、
検出対象のパターンが写されたテンプレート画像を取得し、
前記テンプレート画像及び前記対象画像からそれぞれ特徴量を抽出し、
前記テンプレート画像の特徴量と前記対象画像の特徴量との比較結果に基づいて、前記対象画像から検出対象のパターンを検出する、
情報処理装置。
1. An information processing apparatus comprising: a processing unit that performs processing to detect a predetermined pattern formed on a substrate from a target image obtained by capturing the substrate that has been processed by a substrate processing apparatus,
The processing unit,
A template image showing the pattern to be detected is obtained.
Extracting features from the template image and the target image, respectively;
detecting a detection target pattern from the target image based on a comparison result between the feature amount of the template image and the feature amount of the target image;
Information processing device.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023-163635 | 2023-09-26 | ||
| JP2023163635 | 2023-09-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025069808A1 true WO2025069808A1 (en) | 2025-04-03 |
Family
ID=95203624
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/029745 Pending WO2025069808A1 (en) | 2023-09-26 | 2024-08-22 | Computer program, information processing method, and information processing device |
Country Status (2)
| Country | Link |
|---|---|
| TW (1) | TW202526821A (en) |
| WO (1) | WO2025069808A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002328015A (en) * | 2001-04-27 | 2002-11-15 | Hitachi Ltd | Semiconductor inspection system |
| JP2015141913A (en) * | 2014-01-27 | 2015-08-03 | 株式会社日立ハイテクノロジーズ | Image processing apparatus and charged particle beam apparatus |
-
2024
- 2024-08-22 WO PCT/JP2024/029745 patent/WO2025069808A1/en active Pending
- 2024-09-12 TW TW113134564A patent/TW202526821A/en unknown
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002328015A (en) * | 2001-04-27 | 2002-11-15 | Hitachi Ltd | Semiconductor inspection system |
| JP2015141913A (en) * | 2014-01-27 | 2015-08-03 | 株式会社日立ハイテクノロジーズ | Image processing apparatus and charged particle beam apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| TW202526821A (en) | 2025-07-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102740973B1 (en) | Processing image data sets | |
| JP6872670B2 (en) | Dimension measuring device, dimensional measuring program and semiconductor manufacturing system | |
| JP7004826B2 (en) | Dimension measuring device, dimensional measuring method and semiconductor manufacturing system | |
| US8068662B2 (en) | Method and system for determining a defect during charged particle beam inspection of a sample | |
| US12079310B2 (en) | Defect classification apparatus, method and program | |
| JPH09199551A (en) | Inspection data analysis processor for in-line inspection | |
| US20210065344A1 (en) | Defect inspection device, defect inspection method, and storage medium | |
| JP2021124933A (en) | Image generation system | |
| JP2003100826A (en) | Inspection data analysis program, inspection equipment and inspection system | |
| CN114902280A (en) | Analysis device and analysis method | |
| CN115908988A (en) | Defect detection model generation method, device, equipment and storage medium | |
| US12345522B2 (en) | Computer system, dimension measurement method, and storage medium | |
| JP5323457B2 (en) | Observation condition determination support apparatus and observation condition determination support method | |
| CN118302790A (en) | Teaching data creation assisting device and teaching data creation assisting method | |
| WO2025069808A1 (en) | Computer program, information processing method, and information processing device | |
| CN115698627A (en) | Pattern inspection/measurement device, pattern inspection/measurement program | |
| JP2000322514A (en) | Pattern extraction device and character segmentation device | |
| JP7512532B1 (en) | Computer system, dimension measurement method, and semiconductor device manufacturing system | |
| WO2025094631A1 (en) | Computer program, information processing method, and information processing device | |
| JP7290780B1 (en) | Information processing method, computer program and information processing device | |
| JP2005083843A (en) | Defect detector, cluster generator, defect classifier, defect detection method, cluster generation method, and program | |
| Nakshathri et al. | Automating Scale Extraction from Engineering Drawings: A Multi-Step Vision and Text Approach | |
| CN114494136B (en) | Satellite image coverage detection method, device, equipment and storage medium | |
| JP2007248198A (en) | Feature quantity extraction method and characteristic distribution classification method | |
| JP2022023320A (en) | Visual inspection equipment and visual inspection method, and the program used for this. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24871610 Country of ref document: EP Kind code of ref document: A1 |