[go: up one dir, main page]

TWI794615B - 微加工裝置的自動運作控制 - Google Patents

微加工裝置的自動運作控制 Download PDF

Info

Publication number
TWI794615B
TWI794615B TW109122725A TW109122725A TWI794615B TW I794615 B TWI794615 B TW I794615B TW 109122725 A TW109122725 A TW 109122725A TW 109122725 A TW109122725 A TW 109122725A TW I794615 B TWI794615 B TW I794615B
Authority
TW
Taiwan
Prior art keywords
algorithm
predefined
images
algorithms
time series
Prior art date
Application number
TW109122725A
Other languages
English (en)
Other versions
TW202109338A (zh
Inventor
拉曼尼 彼休曼尼
安東尼 莫林
大衛 德萊頓
克里斯 派克
Original Assignee
德商卡爾蔡司Smt有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 德商卡爾蔡司Smt有限公司 filed Critical 德商卡爾蔡司Smt有限公司
Publication of TW202109338A publication Critical patent/TW202109338A/zh
Application granted granted Critical
Publication of TWI794615B publication Critical patent/TWI794615B/zh

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/261Details
    • H01J37/265Controlling the tube; circuit arrangements adapted to a particular application not otherwise provided, e.g. bright-field-dark-field illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical, image processing or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/06Sources
    • H01J2237/08Ion sources
    • H01J2237/0802Field ionization sources
    • H01J2237/0807Gas field ion sources [GFIS]
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/282Determination of microscope properties
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/30Electron or ion beam tubes for processing objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)

Abstract

微加工裝置(例如掃描電子顯微鏡或聚焦離子束顯微鏡等)可提供影像。使用依順序耦合的第一機器學習演算法(151)和第二機器學習演算法(152)。第一機器學習演算法(151)基於與工作流程相關聯的影像中的特徵識別來決定預定義工作流程中的進度,而第二機器學習演算法(152)根據預定義工作流程中的進度來預測微加工裝置的運作參數的設定。

Description

微加工裝置的自動運作控制
各種示例一般來說關於微加工裝置的自動運作控制。更具體地,各種示例關於使用機器學習演算法的自動運作控制。
微加工裝置促進了與微觀或次微觀樣品(例如半導體裝置、晶圓、生物樣品、微光學件等)的相互作用。舉例來說,相互作用可包含樣品的微觀成像。微加工裝置可依靠的成像模式的示例包含掃描電子顯微鏡(SEM)、原子力顯微鏡(AFM)、X射線成像、聚焦離子束(FIB)成像等。相互作用也可包含樣品的微觀運作。示例包含FIB銑削、使用微影工具的抗蝕劑曝光、穿隧電子顯微鏡(TEM)薄層的製備、材料沉積等。
這種微加工裝置的運作參數通常具有很大空間的可用設定。換句話說:選擇運作參數的合適設定的自由度很大。此外,通常會觀察到參數漂移,因此設定需要在一段時間內進行調整。
這通常使微加工裝置的運作成為複雜且易於出錯的任務。舉例來說,在運作微加工裝置時,可能需要熟練的人員來執行複雜的工作流程。
因此,已經發現,微加工裝置的運作具有各種限制和缺點。舉例來說,對熟練人員的需求將限制微加工裝置的可用性為某些特定任務。由於產量的限制,廣泛使用(例如在晶圓製造中)通常是不可能的。此外,由於運作參數設定的控制的複雜性,運作控制易於出錯。有時,甚至可能由於人為錯誤(例如由於微操縱工具與光學件的碰撞等)而導致樣品或微加工裝置的損壞。
因此,需要用以控制微加工裝置的運作的先進技術。特別地,需要用以克服或減輕至少一些上述限制和缺點的技術。
請求項獨立項的特徵滿足了這種需求。請求項附屬項的特徵定義了具體實施例。
一種用以控制微加工裝置的運作的方法包含獲得影像的時間序列。影像是在使用微加工裝置的運作參數的一或多個第一設定時所獲取的。方法也包含將影像的時間序列的每一影像提供給一或多個第一演算法,並從一或多個第一演算法獲得影像中所包含的一預定義特徵的一或多個特性的一時間序列。方法更包含將一或多個特性的時間序列提供給第二演算法,並從第二演算法獲得對微加工裝置的運作參數的第二設定的預測。方法更包含根據運作參數的第二設定來控制微加工裝置的運作。
電腦程式或電腦程式產品或電腦可讀儲存媒體包含程式碼。程式碼可由至少一處理器加載和執行。在執行程式碼時,至少一處理器執行用以控制微加工裝置的運作的方法。方法包含獲得影像的時間序列。影像是在使用微加工裝置的運作參數的一或多個第一設定時所獲取的。方法也包含將影像的時間序列的每一影像提供給一或多個第一演算法,並從一或多個第一演算法獲得影像中所包含的一預定義特徵的一或多個特性的一時間序列。方法更包含將一或多個特性的時間序列提供給第二演算法,並從第二演算法獲得對微加工裝置的運作參數的第二設定的預測。方法更包含根據運作參數的第二設定來控制微加工裝置的運作。
微加工裝置包含控制電路。控制電路組態以獲得影像的時間序列,影像是在使用微加工裝置的運作參數的一或多個第一設定時所獲取的。控制電路進一步組態以將影像的時間序列的每一影像提供給一或多個第一演算法,並從一或多個第一演算法獲得影像中所包含的一預定義特徵的一或多個特性的一時間序列。控制電路進一步組態以將一或多個特性的時間序列提供給第二演算法,並從第二演算法獲得對微加工裝置的運作參數的第二設定的預測。控制電路進一步組態以根據運作參數的第二設定來控制微加工裝置的運作。
一種用以控制微加工裝置的運作的方法包含使用依順序耦合的第一機器學習演算法和第二機器學習演算法。第一機器學習演算法基於與工作流程相關聯的影像中的特徵識別來決定一預定義工作流程中的一進度。第二機器學習演算法根據預定義工作流程中的進度來預測微加工裝置的運作參數的設定。
電腦程式或電腦程式產品或電腦可讀儲存媒體包含程式碼。程式碼可由至少一處理器加載和執行。在執行程式碼時,至少一處理器執行用以控制微加工裝置的運作的方法。方法包含使用依順序耦合的第一機器學習演算法和第二機器學習演算法。第一機器學習演算法基於與工作流程相關聯的影像中的特徵識別來決定一預定義工作流程中的一進度。第二機器學習演算法根據預定義工作流程中的進度來預測微加工裝置的運作參數的設定。
微加工裝置包含控制電路,該控制電路係組態以使用依順序耦合的第一機器學習演算法和第二機器學習演算法。第一機器學習演算法基於與工作流程相關聯的影像中的特徵識別來決定一預定義工作流程中的一進度。第二機器學習演算法根據預定義工作流程中的進度來預測微加工裝置的運作參數的設定。
應當理解,在不脫離本發明範疇的情況下,上述特徵以及在下文中將要說明的特徵不僅可用於所示的各個組合中,而且也可用於其他組合或單獨地使用。
本發明的一些示例一般提供複數個電路或其他電子裝置。對電路和其他電子裝置以及它們各自提供的功能的所有參照並不旨在限於僅包含本文所顯示和所描述的內容。儘管可將特定的標籤分配給所揭露的各種電路或其他電子裝置,但這樣的標籤並不旨在限制電路和其他電子裝置的運作範圍。這類電路和其他電子裝置可基於期望的特定類型的電子實現而以任何方式彼此組合及/或分離。應認識到,本文所揭露的任何電路或其他電子裝置可包含任何數量的微控制器、圖形處理器單元(GPU)、積體電路、記憶體裝置(例如,快閃記憶體、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電子可編程唯讀記憶體(EPROM)、電子可抹除可編程唯讀記憶體(EEPROM)、或其合適的其他變體)、以及相互協作以執行本文所揭露的運作的軟體。另外,任何一或多個電子裝置可組態以執行體現於非暫態電腦可讀媒體中的程式碼,其係程式化以執行所揭露的任何數量的功能。
在下文中,將參考所附圖式來詳細描述本發明的具體實施例。應理解到,以下對具體實施例的描述不應視為限制性的。本發明的範疇並不意圖受限於下文所描述的具體實施例或附圖,其僅為示例性的。
附圖應被認為是示意性表示,並且附圖中所示的元件不必按比例繪示。相反地,各種元件係表示使得它們的功能和一般目的對於本領域技術具有通常知識者而言是顯而易見的。附圖中所示或本文所描述的功能塊、裝置、組件、或其他物理或功能單元之間的任何連接或耦合也可通過間接連接或耦合來實現。組件之間的耦合也可通過無線連接來建立。功能塊可使用硬體、韌體、軟件、或其組合來實現。
在下文中,將描述用以控制微加工裝置的運作的技術。這些技術可用於各種使用情況,以及用於各式各樣類型的微加工裝置。舉例來說,技術可用於控制微加工裝置的顯微鏡成像模組的運作。替代地或附加地,技術可用於控制微加工裝置的微操縱模組的運作。微加工裝置的示例性顯微成像模組包含但不限於:SEM;FIB顯微鏡;X射線顯微鏡;AFM;光場顯微鏡;雷射掃描顯微鏡;超解析度顯微鏡(例如使用發光);在明視野或暗視野中的光學顯微鏡等。微加工裝置的微操縱模組的示例包含但不限於:FIB銑削;電子或光子曝光;微操縱器(例如電接觸)等等。
通常,本文使用的術語「微」表示在微米或更小的空間長度尺度(例如,奈米)上的特性。
在下文中,將描述有助於自動控制微加工裝置的運作的技術。更具體地,有可能使與微加工裝置的運作相關聯的工作流程自動化。工作流程可由多個步驟來特徵化。工作流程可例如根據某些預定義的要求來提供樣品的成像及/或運作。更一般地,工作流程可為成像及/或操縱做準備。因此,可控制運作,使得有可能對樣品進行後續的成像及/或操縱。舉例來說,工作流程可定義與相應控制運作相關的步驟序列,其依序地調整微加工裝置的運作參數的設定,例如以實現某個目標,例如某些成像模式或微操縱任務。
根據實施方式,可能有更大或更小的自動化程度。舉例來說,根據一些示例,在與運作控制相關聯的工作流程中可能依賴使用者輸出及/使用者戶輸入(使用者互動)。因此,可促進持續的使用者引導。在其他示例中,工作流程可完全地自動化。
通常,取決於微加工裝置的種類和類型,並進一步取決於工作流程的種類和類型,受自動運作控制的運作參數和適當設定可有很大的不同。設定可指定運作參數所採用的實際值。舉例來說,對於基於顆粒的成像技術(例如SEM或FIB成像),運作參數可為加速或引出電壓、樣品或樣品台上的壓力、顆粒通量、光學件、聚焦、孔徑、停留時間、源距離、樣品台的傾斜和位置,僅舉幾例。舉例來說,對於使用微操縱器的操縱技術,微操縱器的方向和位置、驅動路徑等將是運作參數的示例。
本文描述的各種技術依賴於電腦實現的邏輯,用於微加工裝置的運作控制的自動化。特別地,根據各種示例,可使用一或多種演算法,以由電腦執行與運作控制相關聯的一或多個任務。在一些示例中,一或多種演算法中的至少一些可依賴於機器學習的技術。在這方面,演算法可非預先定義的,而是可基於訓練資料在訓練階段中進行組態。可偵測模式,並可依賴於在訓練階段過程中獲得的知識的推斷。在此,基於使用者輸入,可實施(半)監督學習,其組態了機器學習演算法。這與事先組態且未基於資料進行訓練的非機器學習演算法不同。
根據示例,採用兩步法。在此,第一演算法和第二演算法依序配置。亦即,第一演算法的輸出形成第二演算法的輸入。第一演算法及/或第二演算法可能包含機器學習核心,亦即機器學習演算法。
第一演算法和第二演算法可執行不同的任務。特別地,第一演算法有可能決定與微加工裝置相關的影像中的預定義特徵的特性。
預定義特徵可與用於微加工裝置的運作的工作流程相關聯。預定義特徵的特定外觀可與工作流程中的進度相關聯。由第一演算法決定的特性可指示預定義特徵的外觀。舉例來說,預定義特徵可與工作流程的完成程度相關聯。舉例來說,如果微加工裝置的運作的工作流程已成功完成,則取決於實現方式,預定義特徵可在影像中清晰可見或可不存在於影像中。舉一個例子:預定義特徵可藉由影像中繪示的半導體結構的對準標記來實現。運作的工作流程可與聚焦和對準SEM成像模組相關聯。如果對準標記在SEM成像模組所獲取的影像中聚焦,則對準已成功完成。因此,有可能藉助於第一演算法將清晰度因子或對比度決定為對準標記特徵的特性。清晰度因子(或通常是任何其他特性)可在最小值和最大值之間逐漸變化。
然後,有可能提供第一演算法的輸出,即預定義特徵的優先性,作為第二演算法的輸入。然後,第二演算法可預測微加工裝置的一或多個運作參數的未來設定。換句話說,預測可關於尚未實現但將來可實現以達成某個目標的設定。特別地,可應用由第二演算法所預測的未來設定,以實現與工作流程相關的目標,針對該工作流程以自動化方式控制微加工裝置的運作。
因此,有可能接著根據未來的控制參數設定來控制微加工裝置的運作。
詳細地,第二演算法有可能基於預定義特徵的特性的時間序列來進行運作,以做出預測。在這方面,可能針對在不同時間點的多個影像,多次執行第一演算法。由此,獲得預定義特徵的特性的時間序列,且可提供狀態的時間序列作為第二演算法的輸入,以進行預測。基於這樣的時間序列,可做出預測。
第二演算法的機器學習核心的示例實施方式係基於遞迴神經網絡(RNN)。這樣的RNN可在時間序列上運作作為輸入。另一示例實施方式將包含多層感知器(MLP)或另一個前饋人工神經網絡。
通過使用包含依序排列的第一演算法和第二演算法的這類兩步法,可以實現對微加工裝置的控制參數的未來設定的精確預測。特別地,有可能首先使用第一演算法分析預定義特徵的一或多個特性,該特徵與旨在被自動化的工作流相關聯。接著,基於此預評估,可使用第二演算法來預測適當的設定以取得工作流程中的進展。
圖1示意性地顯示了根據各種示例的微加工裝置90。微加工裝置90包含成像模組95和微操縱模組96。在本文所述的各種示例中,微加工裝置90有可能包含成像模組95或微操縱模組96、或兩者。
可將樣品99加載到微加工裝置90中,以促進微加工裝置90和樣品99之間的相互作用。
顯微成像模組95係組態以藉由獲取其顯微影像而與樣品99相互作用。
微操縱模組96係組態以藉由操縱其結構而與樣品99相互作用。舉例來說,可移除樣品99的材料,或可將材料沉積在樣品99的表面上。材料可植入樣品99中。在空間解析地實現操縱的情況下可使用微影。
微加工裝置90還包含處理器91,其與記憶體92耦合。處理器91和記憶體92形成控制電路。舉例來說,處理器91可從記憶體92載入程式碼並執行程式碼。執行程式碼可使處理器91執行以下一或多項:執行與微加工裝置90(特別是成像模組95及/或微操縱模組96)的運作控制相關的一或多種演算法;例如基於從人機介面(HMI)93接收的使用者輸入來執行一或多個機器學習演算法的訓練;例如基於一或多種演算法的輸出來控制微加工裝置90(特別是成像模組95及/或微操縱模組96)的運作。
圖2為功能流程圖。圖2顯示了與微加工裝置90的運作控制有關的態樣。
最初,獲得影像101-104的時間序列100。影像101-104可描繪樣品或可不描繪樣品。在一示例中,影像101-104可藉由微加工裝置90的成像模組95來獲取。替代地或補充地,影像101-104可藉由另一種成像模態來獲取。對於跨模態工具而言,使用第一模態獲取影像101-104並描繪第二模態是可能的。舉例來說,影像101-104可使用SEM來獲取,並可描繪微操縱器。
在1901,將影像101-104的時間序列100作為輸入提供給演算法151。在圖2的示例中,演算法151實現為卷積神經網絡(CNN)或支援向量機(SVM);更一般地,演算法151可使用機器學習核心來實現。為了簡單起見,在下文中,假設演算法151實施為SVM,但可設想其他情況。
接著,在1902處執行演算法151。在1903,SVM 151輸出影像101-104中所包含的預定義特徵的一或多個特性。可訓練SVM 151以決定預定義特徵的一或多個特性。
更具體地說,SVM 151可輸出預定義特徵的一或多個特性的時間序列(time series / temporal sequence)。舉例來說,可對時間序列100的每一影像101-104執行一次SVM 151。對於在1902的SVM 151的每次執行,可輸出在相應影像101-104中的預定義特徵的相應一或多個特性。
接著,將此時間序列輸入至在1904執行的演算法152。在圖2的示例中,演算法152實施為RNN或MLP。為了簡單起見,在下文中將參照演算法152為MLP的實施方式,但其他的實施方式也是可能的。
接著,MLP 152預測微加工裝置90的一或多個運作參數的未來設定132;這些在1905處被輸出,並有可能根據此設定132來控制微加工裝置90的運作。
圖2的示例有助於微加工裝置90的精確自動化控制,例如以實現與預定義特徵相關聯的特定工作流程。特別地,MLP 152可預測未來設定132,使得在根據未來設定132控制微加工裝置90的運作時,預定義特徵的一或多個特性根據工作流程的設定/目標特性來作用。這將結合圖3使用一具體的示例用例來作進一步的詳細解釋。
圖3顯示了影像101-104的時間序列100。使用氣體場離子源(GFIS)作為成像模組95來獲取影像101-104。在圖3的示例中,GFIS可實現三原子銳利尖端以形成所謂的三聚體。
在圖3中,對特徵210進行預定義,其對應於三聚體子光束。如圖3所示,影像101不包含三聚體子光束特徵210;影像102-104包含三聚體子光束特徵210。這可能是由於更改了成像模組95的運作參數的設定131。
在不加載樣品99的情況下,可在影像中描繪三聚體小光束特徵210。
三聚體小光束特徵210在每一個影像102-104中具有不同的特性201-202。第一特性201與影像102-104內的三聚體槍的頂點位置有關。第二特性202與影像102-104中的三聚體原子的對比度有關。表格1表示這些特性。
影像 特性201 位置 x-y (a.u.) 特性202 對比度 (a.u.)
101 n/a n/a
102 2,5 – 1,7 2,0
103 2,7 – 1,7 2,2
104 2,7 – 1,0 4
表1:三聚體子光束特徵210的特性(參見圖3)
注意,表格1所示的預定義特徵的特性僅為示例。其他特性也是可能的。舉例來說,可結合三聚體小光束特徵210進行定義的另一特性可與三聚體小光束特徵210的幾何結構有關,例如,指定相鄰小光束之間的角度、小光束的緊密堆積的程度、三聚體小光束特徵的能譜密度、強度水平等,僅舉幾個例子。
演算法151可決定這些特性並將其輸出。
將認識到,除了三聚體小光束特徵210的外觀所固有的這種定量特性201-202之外,三聚體小光束特徵210在影像101-104中也採取不同狀態。表格2中列出了示例狀態。
影像 三聚體小光束特徵210的狀態
101 未偵測
102 太多原子
103 三聚體小光束形成
104 三聚體小光束形成
表格2:三聚體小光束特徵210的特性(參見圖3)
在此示例中,可決定與三聚體的健康狀況相對應的狀態。舉例來說,根本沒有偵測到三聚體,這可能是三聚體槍與GFIS成像模組95的孔徑未對準。舉例來說,如果偵測到三聚體槍的頂點,但太多原子是可見的,則頂點可能不健康,例如,因為它沒有形成多面的三原子尖端。
應當理解,狀態可對應於將影像中預定義特徵的外觀分類為預定義類別。
健康狀況是有可能決定的。健康狀態可對應於預定義特徵的可見性或預定義特徵的前驅物的可見性(在此:影像102中的多原子小光束)。
圖3也顯示了與微加工裝置90的運作相關聯的工作流程3000有關的態樣。在圖3的示例場景中,使用本文所描述的技術而自動化的工作流程3000對應於用於成像的三聚體的形成和對準。三聚體形成和對準的健康狀態由三聚體小光束特徵210表示。
工作流程3000可包含以下步驟。在步驟3001,對保持樣品99的樣品室減壓。接著,在步驟3002,將原子尖端的加速電壓接通,例如最初到相當低的值。接著,觀察對應影像101的第一光。
隨著工作流程3000的進行,可在步驟3003執行孔徑的場光闌對準。此外,在步驟3004可選擇光學件。舉例來說,可執行聚焦。接著,在影像102中,原子尖端變得可見。然而,三聚體尚未下降。
因此,工作流程3000繼續進行,且在步驟3005,執行原子尖端的原子的場蒸發,從而形成頂點的三原子尖端。接著在步驟3006,有可能提高加速電壓。因此,在影像102中,三聚體小光束特徵210出現且為可見。
隨著工作流程3000的進一步進行,在步驟3007,執行精細對準,這進一步增加了影像104中三聚體小光束特徵210的對比度。
因此,從前文可理解到,三聚體小光束特徵210與工作流程3000中的進度相關聯。
另外,參見Hlawacek, Gregor等人在Journal of Vacuum Science & Technology B, Nanotechnology and Microelectronics: Materials, Processing, Measurement, and Phenomena 32.2 (2014): 020801中提出的「氦離子顯微鏡(Helium ion microscopy)」。
已發現有時決定預定義特徵的狀態可能是有幫助的。將結合圖4對此進行解釋。
圖4為功能流程圖。圖4顯示了與微加工裝置90的運作控制有關的態樣。圖4的示例為圖2示例的擴展。
第一擴展關於提供用於獲取影像101-104的時間序列100(參見圖3)的一或多個第一設定131作為演算法151的輸入。由此,演算法151可更準確地決定預定義特徵210的特性201-202。有可能達成更精確和更快的訓練。
第二擴展關於使用多個演算法151。特別地,如圖4所示,有可能使用多個演算法151來首先決定特性201-202,接著決定狀態110。舉例來說,演算法151中的第一個可決定特性201-202,而演算法151中的第二個可決定狀態110。由此,多個演算法151中的每一個的訓練資料集可更小。這有助於訓練。
在圖4的示例中,預定義特徵的狀態110用於從多個候選演算法中選擇演算法152。這是藉由將狀態110饋入至狀態機154來實現的,其接著執行選擇;對於此選擇,其他實施方式也是可能的。
舉例來說,對於不同的狀態110(參見表格1),可選擇不同的演算法152來決定預測設定132。這種實現方式具有的優點是,每個個別演算法152需要處理的參數空間相當地有限,特別是與沒有發生取決於狀態110的選擇的情況相比。由此,促進了演算法152的訓練。此外,使用演算法152的運作趨於更加準確。
如圖4所示,有可能向使用者提供關於主動狀態110的反饋601。舉例來說,如果預定義特徵處於不健康狀態,則可發出警告。舉例來說,如果預定義特徵處於不健康狀態,則可請求(重新)校準。可將使用者反饋601提供給HMI 93(參見圖1)。
一般來說,也有可能使用狀態110來控制微加工裝置90的運作。如圖4所示,狀態110也可輸入到所選的MLP152。選擇性地,也可根據狀態機154的輸出來控制微加工裝置90的運作(圖4中未示出)。
與圖2的實行方式相比,圖4的實行方式的第三擴展係涉及使用第三演算法153。演算法153與演算法151並行耦合。演算法153可不需要機器學習核心。而是,可使用傳統的先驗定義演算法核心。演算法153係組態以決定在時間序列100的影像101-104的其中至少一些中的預定義特徵210的方位121及/或位置。舉例來說,演算法153可採用特徵點偵測。
舉例來說,參考圖3的示例,演算法153有可能偵測三聚物小光束特徵210的方位,例如,在x-y座標系統中的旋轉角度。
然後,將預定義特徵的方位121及/或定位提供給演算法152中所選的一個作為輸入。選擇性地,也有可能將預定義特徵的方位121及/或定位提供給狀態機154作為輸入,使得也可根據此輸入來從候選演算法中選擇演算法152。
圖5是功能流程圖。圖5顯示了與微加工裝置90的運作控制有關的態樣。
在2001,將影像101-104的時間序列100提供給一或多個演算法151作為相應的輸入。
在2002,將影像101-104的時間序列100提供給演算法153作為相應的輸入。
在2003及2004,將在獲取影像101-104時處於活動狀態的微加工裝置90的一或多個控制參數的設定131分別提供給一或多個演算法151和演算法153作為輸入。這通常是選擇性的。
在2004,執行一或多個演算法151。雲端計算是可能的。卸載到伺服器是可能的。
在2005,執行演算法153。雲端計算是可能的。卸載到伺服器是可能的。
在2006,與預定義特徵的特性201-202有關的一或多個演算法151的輸出被提供給演算法152。更特別地,如圖5所示,存在特性201-202的時間序列209(例如,對應於表格1的列)。這是因為時間序列100的影像101-104中的每一個被個別地提供給一或多個演算法151,且在2004觸發一或多個演算法151的相應執行。因此,對於時間序列100的影像101-104中的每一個,決定至少一預定義特徵210的相應特性201-202,從而產生時間序列209。
在2007,將狀態110提供給狀態機154,其在2009處從多個候選演算法中選擇適當的演算法152。這一般為選擇性的。在2008,狀態機154也獲得方位121作為輸入;這也是選擇性的。
在2010,演算法153將方位121的時間序列120提供給演算法152。同樣地,對於時間序列100的影像101-104中的每一影像,演算法153可能會執行多次。由此,多次決定方位121,影像101-104中的每個影像一次,從而產生時間序列120。
在2011,執行演算法152。可使用雲端計算。執行可卸載到伺服器。接著,在2012,預測設定132用於控制微加工裝置90的運作。
圖5也顯示了關於演算法151-152的訓練的態樣,即學習階段。
一般來說,學習階段可整合到執行階段。亦即,可在自動化實時工作流程時執行訓練。在其他示例中,訓練階段和執行階段可以分開。
舉例來說,基於用以控制演算法151-152的運作的控制位元,可在(i)執行階段和(ii)訓練階段之間進行區分。舉例來說,如果控制位元被設定,則訓練階段可被激活。可例如使用誤差後向傳播來實現訓練模式。
可基於使用者輸入來激活訓練模式。舉例來說,使用者可手動地切換到訓練模式。或者,有可能在進行自動化工作流程時,偵測與HMI 93所提供的使用者介面的任何使用者互動,然後在偵測到使用者互動時切換到訓練模式。
首先,討論一或多個演算法151的訓練。在2021,例如從HMI 93(參見圖1)接收使用者輸入602。使用者輸入602關於預定義特徵的特性201-202。舉例來說,使用者輸入602可手動地指定在一或多個影像101-104中的預定義特徵的特性。接著,在2021,可將反饋171提供給一或多個演算法151作為訓練輸入。反饋171可基於預定義特徵的使用者輸入602與一或多個演算法151的輸出之間的比較。在另一示例中,反饋171可簡單地對應至使用者輸入602。基於反饋171,可執行一或多個演算法151的訓練。根據一或多個演算法151的特定實現,可使用本領域中已知的用於訓練一或多個演算法151的機器學習核心的不同訓練技術。
將會認識到,藉由接收使用者輸入602並使用使用者輸入602進行訓練,可訓練演算法151以決定人類可理解的特性,例如,結合圖3針對頂點定位特性201和對比度特性202所作的討論。這可促進在自動化工作流程中的連續使用者導引。使用者可理解一或多個演算法151的輸出並對之做出反應。
訓練可在工作流程期間進行。特別地,有可能在執行工作流程時,使用者根據演算法151-153來監視自動化處理並與之互動。然後,有可能進行線上訓練。
以與前文已結合特性201-202進行解釋的一或多個演算法151的訓練類似的方式,也可能針對狀態110對一或多個演算法151進行訓練。使用者可手動地指定狀態110,且訓練可基於此。
接下來,將解釋演算法152的訓練。在此處,在2023,例如從HMI 93接收使用者輸入603。使用者輸入603可關於用以控制微加工裝置90的運作的另一設定133。接著,在2024,有可能執行演算法152所預測的設定132和使用者所提供的設定133之間的比較,並決定提供給演算法152作為訓練輸入的相應反饋172。接著,演算法152的機器學習核心的訓練可基於反饋172(即,設定132和133之間的比較)。
訓練演算法151-152的另一選擇(其可代替地或補充地應用於基於反饋171-172的訓練)為對演算法151-152的組合序列進行端到端訓練。特別地,有可能在2025提供反饋172,其為對一或多個演算法151的訓練輸入。
端到端訓練的優點在於,一或多個演算法151的輸出不限於人類可理解的狀態特性。相反地,可識別在精確的運作控制中特別有利的狀態特性。
圖6是根據各種示例的方法的流程圖。圖6的方法可由控制電路執行。舉例來說,當從記憶體92(參見圖1)載入程式碼時,圖6的方法可由處理器91執行。在圖6中用虛線表示選擇性框。
在框1001,獲得影像的時間序列。使用適當的成像模態來捕獲影像的時間序列。影像的時間序列可為或可不為顯微樣品。顯微樣品被放置在微加工裝置中,例如前文所述的微加工裝置90中。在激活微加工裝置的運作參數的一或多個第一設定時,獲取影像的時間序列。
在框1002,選擇在框1001獲得的影像的時間序列的當前影像。
在框1003,將當前影像提供作為一或多個第一演算法(例如,一或多個演算法151)的輸入。由此,有可能獲得在當前影像中所描繪的至少一預定義特徵的特性及/或狀態。因此,框1003對應於圖5的示例實施方式的2001和2004。
在選擇性框1004處,提供當前影像作為第三演算法(例如,演算法153)的輸入。接著,第三演算法決定在當前影像中所描繪的預定義特徵的方位及/或定位。舉例來說,可相對於與當前影像相關聯的參考座標系統來決定預定義特徵的方位及/或定位。因此,框1004對應於圖5的示例實施方式的2002和2005。
在框1005,檢查是否存在時間序列的另一影像。若是,則使用另一影像作為當前影像來重新執行框1002-1004。
否則,方法從選擇性框1006開始。在框1006,檢查由第一演算法1003輸出的狀態是否在預定義的設定/目標範圍內。因此,藉由框1006,有可能監視預定義特徵的狀態。舉例來說,如果預定義特徵的狀態對應於健康狀態,則可偵測預定義特徵的健康的劣化。這種劣化可能是由於運作參數的時間漂移造成的。
如果狀態是可接受的,則可能無需採取措施;特別地,可能不需要調整微加工裝置的運作參數的設定。因此,方法從重新執行框1001開始。否則,方法從選擇性框1007開始。
在選擇性框1007,從複數個候選演算法中選擇第二演算法。舉例來說,選擇可基於框1003的輸出及/或框1004的輸出。更具體地,選擇有可能基於在框1003從一或多個第一演算法所獲得的狀態。選擇也可基於在框1004從第三演算法所獲得的方位及/或定位。因此,框1007對應於圖5的2007-2009。
在其他示例中,第二演算法可為固定的和預定義的。
接著,方法從框1008開始。在框1008處,提供從框1003(以及,選擇性地從框1004)獲得的特性(以及,選擇性地,狀態、方位及/或定位)的時間序列給第二演算法作為輸入。第二演算法輸出對微加工裝置的運作參數的未來設定的預測。此預測顯示於圖7。如圖7所示,在時間間隔801期間,當設定131處於活動狀態時,獲取時間序列100的影像101-104。接著,在時間點802,執行演算法152(對應於圖5中的2011)。演算法152在將來的時間點803對設定132做出預測。接著,可應用設定132。
再次參考圖6。在框1009,可接著使用在框1008所預測的設定來控制微加工裝置的運作。
在選擇性框1010,可接收使用者輸入。使用者輸入可用以改善或調整由第一演算法在框1003所提供的特性及/或狀態。選擇性地,在框1011,使用者輸入也可用於訓練。參見圖5:2022。
在選擇性框1012,可接收進一步的使用者輸入。使用者輸入可用於改善或調整由第二演算法在框1008所提供的預測設定。選擇性地,在框1013,使用者輸入可用於訓練,例如端到端訓練。參見圖5:2024和2025。
因此,前文至少描述了以下示例:
示例1:一種用以控制一微加工裝置(90)的運作的方法,包含: -       獲得影像(101-104)的一時間序列(100),影像(101-104)是在使用微加工裝置(90)的運作參數的一或多個第一設定(131)時所獲取的,-       將影像(101-104)的時間序列(100)的每一影像(101-104)提供給一或多個第一演算法(151),並從一或多個第一演算法(151)獲得影像(101-104)中所包含的一預定義特徵(210)的一或多個特性(201-202)的一時間序列(209),-       將一或多個特性(201-202)的時間序列(209)提供給一第二演算法(152),並從第二演算法(152)獲得對微加工裝置(90)的運作參數的第二設定(132)的預測,以及-       根據運作參數的第二設定(132)來控制微加工裝置(90)的運作。
示例2:如示例1的方法,更包含: -       從一或多個第一演算法(151)獲得預定義特徵(210)的一狀態(110),以及-       基於狀態(110)從複數個候選演算法中選擇第二演算法(152)。
示例3:如示例2之方法,其中進一步基於時間序列(100)的影像(101-104)中的預定義特徵(210)的一方位(121)或一定位的其中至少一者,而從複數個候選演算法中選擇第二演算法(152)。
示例4:如示例2或3之方法,更包含: -       監視預定義特徵(210)的狀態(110),以及-       基於該監視,根據第二設定選擇性地觸發對微加工裝置的運作的控制。
示例5:如示例2到示例4的其中任一者之方法,其中狀態(110)包含預定義特徵(210)的一健康狀態。
示例6:如示例5之方法,其中健康狀態指示以下的一或多項:預定義特徵(210)在相應影像中的一可見性;預定義特徵(210)的一前驅物在相應影像中的一可見性。
示例7:如前述示例的其中任一者之方法,其中預定義特徵(210)的一或多個特性(201-202)包含以下至少一者:預定義特徵(210)的一清晰度或對比度等級;預定義特徵(210)的一定位;或預定義特徵(210)的一幾何結構。
示例8:如前述示例的其中任一者之方法,更包含: -       將影像(101-104)的時間序列(100)的至少一些影像(101-104)提供給第三演算法(153),並獲得在至少一些影像(101-104)中的預定義特徵(210)的一方位(121)或一定位的其中至少一者,以及-       提供預定義特徵(210)的方位(121)或定位的其中至少一者給第二演算法(152)。
示例9:如前述示例的其中任一者之方法,更包含: -       從一人機介面(93)接收微加工裝置(90)的運作參數的第三設定(133),-       進行在第二設定(132)和第三設定(133)之間的一比較,以及-       基於比較來訓練(2024)第二演算法(152)的一機器學習核心。
示例10:如前述示例的其中任一者之方法,更包含: -       從一人機介面(93)接收微加工裝置(90)的運作參數的第三設定(133),-       進行在第二設定(132)和第三設定(133)之間的一比較,以及-       基於比較來端對端地訓練(2025)一或多個第一演算法(151)和第二演算法(152)的機器學習核心。
示例11:如前述示例的其中任一者之方法,更包含: -       從一人機介面(93)接收影像(101-104)的時間序列(100)的至少一影像(101-104)中的預定義特徵(210)的一使用者輸入(602),以及-       基於使用者輸入(602),訓練(2022)一或多個第一演算法(151)的一機器學習核心。
示例12:如前述示例的其中任一者之方法,更包含: -       提供運作參數的一或多個第一設定(131)給一或多個第一演算法(151)或第二演算法(152)的其中至少一者。
示例13:如前述示例的其中任一者之方法,其中時間序列(100)的影像(101-104)中的預定義特徵(210)包含微加工裝置(90)的一氣體場離子源的三聚體子光束。
示例14:如前述示例的其中任一者之方法,其中預定義特徵(210)與關聯於微加工裝置的運作的一預定義工作流程(3000)中的一進度有關。
示例15:一種用以控制一微加工裝置的運作的方法,方法包含使用依順序耦合的一第一機器學習演算法(151)和一第二機器學習演算法(152),第一機器學習演算法(151)基於與工作流程相關聯的影像中的特徵識別來決定一預定義工作流程中的一進度,第二機器學習演算法(152)根據預定義工作流程中的進度來預測微加工裝置的運作參數的設定。
示例16:一種包含控制電路(91、92)的微加工裝置(90),控制電路(91、92)係組態以: -       獲得影像(101-104)的一時間序列(100),影像(101-104)是在使用微加工裝置(90)的運作參數的一或多個第一設定(131)時所獲取的,-       將影像(101-104)的時間序列(100)的每一影像(101-104)提供給一或多個第一演算法(151),並從一或多個第一演算法(151)獲得影像(101-104)中所包含的一預定義特徵(210)的一或多個特性(201-202)的一時間序列(209),-       將一或多個特性(201-202)的時間序列(209)提供給第二演算法(152),並從第二演算法(152)獲得對微加工裝置(90)的運作參數的第二設定(132)的一預測,以及-       根據運作參數的第二設定(132)來控制微加工裝置(90)的運作。
示例17:如示例16的微加工裝置(90),其中控制電路組態以執行示例1至示例15的其中任一項的方法
儘管已經關於於某些較佳具體實施例顯示和描述了本發明,但是本技術領域中具有通常知識者在閱讀和理解說明書之後將可進行均等和修改。本發明包含所有這類均等和修改,並僅由所附請求項的範疇所限制。
總而言之,前文已經描述了有助於自動控制微加工裝置的運作的技術。技術使用具有機器學習核心的第一演算法和具有機器學習核心的第二演算法,第一演算法和第二演算法係依順序耦合。第一機器學習演算法決定沿預定義工作流程的進度。這可基於在沿工作流程進行時所捕獲的影像中對與工作流程相關聯的預定義特徵的特性及/或狀態的特徵識別。第二機器學習演算法獲得第一機器學習演算法的輸出作為輸入。接著,第二機器學習演算法根據預定義工作流程中的進度,預測微加工裝置的運作參數設定。藉由實施預測的設定,可取得預定義工作流程中的進一步進展。
為了進行說明,前文已描述了各種示例,其中與GFIS成像模組的三聚體的形成相關的工作流程是自動化的。然而,類似的示例也可應用於其他種類和類型的微加工裝置以及其他種類和類型的工作流程。舉例來說,有可能自動化與X射線成像模組的對準相關聯的工作流程。在另一示例中,有可能將與電及/或光學晶圓探測相關聯的工作流程自動化。在此處,載物台位置和多個探針的探針位置必須對齊。視場、探針高度、成像參數、電探針參數等是需適當設定的一些其他運作參數的示例。並非確定性地決定所有這樣的參數,而是根據示例,有可能使用機器學習演算法來實現本文描述的技術以使工作流程自動化。這提供了一種靈活、穩健且通用的方法來實施晶圓探測。
為了進一步說明,前文已描述了各種示例,其中提供運作參數的當前設定作為演算法的輸入。替代地或附加地,也有可能提供與微加工裝置的運作相關的量測作為所描述的一或多種演算法的輸入。量測示例可包含:溫度;壓力;濕度等等。
90:微加工裝置 91:處理器 92:記憶體 93:人機介面 95:成像模組 96:微操縱模組 99:樣品 100:時間序列 101-104:影像 110:狀態 120:時間序列 121:方位 131:設定 132:設定 133:設定 151:演算法 152:演算法 153:演算法 154:狀態機 171:反饋 172:反饋 201:特性 202:特性 209:時間序列 210:特徵 601:反饋 602:使用者輸入 603:使用者輸入 801:時間間隔 802:時間點 803:時間點 1901-1905:步驟 2001-2025:步驟 3000:工作流程 3001-3007:步驟
圖1示意性地顯示了根據各種示例的微加工裝置;
圖2示意性地顯示了根據各種示例的使用兩個依順序配置的演算法在微加工裝置上實施的工作流程的自動化;
圖3示意性地顯示了在使用示例性微加工裝置所獲得並藉由根據各種示例的演算法進行分析的影像中所包含的三聚體-子光束特徵;
圖4示意性地顯示了根據各種示例的使用兩個依順序配置的演算法在微加工裝置上實施的工作流程的自動化;
圖5示意性地顯示了根據各種示例的使用兩個依順序配置的演算法在微加工裝置上實施的工作流程的自動化;
圖6為根據各種示例的方法的流程圖;以及
圖7示意性地顯示了根據各種示例的藉由演算法對運作參數的設定的預測。
100:時間序列
101-104:影像
132:設定
151:演算法
152:演算法
1901-1905:步驟

Claims (14)

  1. 一種用以控制一微加工裝置的一運作的方法,包含:獲得多個影像的一時間序列,該等影像是在使用該微加工裝置的多個運作參數的一或多個第一設定時所獲取的,將該等影像的該時間序列的每一影像提供給一或多個第一演算法,並從該一或多個第一演算法獲得該等影像中所包含的一預定義特徵的一或多個特性的一時間序列,將該一或多個特性的該時間序列提供給一第二演算法,並從該第二演算法獲得對該微加工裝置的該等運作參數的一第二設定的一預測,以及根據該等運作參數的該第二設定來控制該微加工裝置的該運作;其中該方法更包含:從一人機介面接收該等影像的該時間序列的至少一影像中的該預定義特徵的一使用者輸入,以及根據該使用者輸入,訓練該一或多個第一演算法的一機器學習核心。
  2. 如請求項1之方法,更包含:從該一或多個第一演算法獲得該預定義特徵的一狀態,以及基於該狀態從複數個候選演算法中選擇該第二演算法。
  3. 如請求項2之方法,其中基於在該時間序列的該等影像中的該預定義特徵的一方位或一定位的其中至少一者,而進一步從該複數個候選演算法中選擇該第二演算法。
  4. 如請求項2之方法,更包含:監視該預定義特徵的該狀態,以及基於該監視,根據該第二設定選擇性地觸發對該微加工裝置的該運作的該控制。
  5. 如請求項2之方法,其中該狀態包含該預定義特徵的一健康狀態,其中該健康狀態指示以下的一或多項:該預定義特徵在該相應影像中的一可見性;該預定義特徵的一前驅物在該相應影像中的一可見性。
  6. 如請求項1之方法,其中該預定義特徵的該一或多個特性包含以下至少一者:該預定義特徵的一清晰度或對比度等級;該預定義特徵的一定位;或該預定義特徵的一幾何結構。
  7. 如請求項1之方法,更包含:將該等影像的該時間序列的至少一些影像提供給一第三演算法,並獲得在該至少一些影像中的該預定義特徵的一方位或一定位的其中至少一者,以及提供該預定義特徵的該方位或該定位的該其中至少一者給該第二演算法。
  8. 如請求項1之方法,更包含:從一人機介面接收該微加工裝置的該等運作參數的一第三設定,進行在該第二設定和該第三設定之間的一比較,以及基於該比較來訓練該第二演算法的一機器學習核心(machine-learning kernel)。
  9. 如請求項1之方法,更包含:從一人機介面接收該微加工裝置的該運作參數的一第三設定,進行在該第二設定和該第三設定之間的一比較,以及基於該比較來端對端地(end-to-end)訓練該一或多個第一演算法和該第二演算法的多個機器學習核心。
  10. 如請求項1之方法,更包含:提供該等運作參數的該一或多個第一設定給該一或多個第一演算法或該第二演算法的其中至少一者。
  11. 如請求項1之方法,其中該時間序列的該等影像中的該預定義特徵包含該微加工裝置的一氣體場離子源的三聚體子光束(trimer beamlet)。
  12. 如請求項1之方法,其中該預定義特徵與關聯於該微加工裝置的該運作的一預定義工作流程中的一進度有關。
  13. 一種用以控制一微加工裝置的運作的方法,該方法包含使用依順序耦合的一第一機器學習演算法和一第二機器學習演算法,該第一機器學習演算法基於與工作流程相關聯的多個影像中的特徵識別來決定一預定義工作流程中的一進度,該第二機器學習演算法根據該預定義工作流程中的該進度來預測該微加工裝置的多個運作參數的多個設定;其中該方法更包含:從一人機介面接收該等影像中的該特徵識別的一使用者輸入,以及根據該使用者輸入,訓練該第一機器學習演算法的一機器學習核心。
  14. 一種包含控制電路的微加工裝置,該控制電路組態以:獲得多個影像的一時間序列,該等影像是在使用該微加工裝置的多個運作參數的一或多個第一設定時所獲取的,將該等影像的該時間序列的每一影像提供給一或多個第一演算法,並從該一或多個第一演算法獲得該等影像中所包含的一預定義特徵的一或多個特性的一時間序列,將該一或多個特性的該時間序列提供給一第二演算法,並從該第二演算法獲得對該微加工裝置的該等運作參數的一第二設定的一預測,以及根據該等運作參數的該第二設定來控制該微加工裝置的該運作;其中該控制電路更組態以:從一人機介面接收該等影像的該時間序列的至少一影像中的該預定義特徵的一使用者輸入,以及根據該使用者輸入,訓練該一或多個第一演算法的一機器學習核心。
TW109122725A 2019-07-26 2020-07-06 微加工裝置的自動運作控制 TWI794615B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962878817P 2019-07-26 2019-07-26
US62/878,817 2019-07-26
DE102019128213.6 2019-10-18
DE102019128213 2019-10-18

Publications (2)

Publication Number Publication Date
TW202109338A TW202109338A (zh) 2021-03-01
TWI794615B true TWI794615B (zh) 2023-03-01

Family

ID=71842659

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109122725A TWI794615B (zh) 2019-07-26 2020-07-06 微加工裝置的自動運作控制

Country Status (5)

Country Link
US (1) US12176182B2 (zh)
JP (1) JP7535568B2 (zh)
CN (1) CN114207765A (zh)
TW (1) TWI794615B (zh)
WO (1) WO2021018725A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI812091B (zh) * 2021-04-21 2023-08-11 德商卡爾蔡司Smt有限公司 訓練機器學習邏輯及分析高深寬比結構中奈米柱橫截面環之方法、半導體檢測裝置、電腦程式及實體儲存媒體

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060071166A1 (en) * 2004-10-05 2006-04-06 Mitsugu Sato Charged particle beam apparatus and dimension measuring method
WO2009093247A1 (en) * 2008-01-22 2009-07-30 Applied Materials Israel Ltd. System and method for material analysis of a microscopic element
CN105408746A (zh) * 2013-02-28 2016-03-16 普罗吉涅股份有限公司 基于图像的人胚胎细胞分类的装置、方法和系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7358493B2 (en) * 2005-06-08 2008-04-15 Infineon Technologies Richmond, Lp Method and apparatus for automated beam optimization in a scanning electron microscope
JP5748680B2 (ja) * 2012-01-26 2015-07-15 日本電子株式会社 エミッタチップ製造装置およびエミッタチップの製造方法
US10110854B2 (en) * 2012-07-27 2018-10-23 Gatan, Inc. Ion beam sample preparation apparatus and methods
US9576772B1 (en) * 2015-08-31 2017-02-21 Fei Company CAD-assisted TEM prep recipe creation
WO2017076060A1 (zh) 2015-11-05 2017-05-11 杭州唐光科技有限公司 一种自动聚焦装置及系统
US10365617B2 (en) * 2016-12-12 2019-07-30 Dmo Systems Limited Auto defect screening using adaptive machine learning in semiconductor device manufacturing flow
US10185312B2 (en) 2017-01-31 2019-01-22 Globalfoundries Inc. Insitu tool health and recipe quality monitoring on a CDSEM
US11275361B2 (en) 2017-06-30 2022-03-15 Kla-Tencor Corporation Systems and methods for predicting defects and critical dimension using deep learning in the semiconductor manufacturing process
CN109447141A (zh) * 2018-10-22 2019-03-08 西安云鑫电子科技有限公司 基于机器学习的激光除锈方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060071166A1 (en) * 2004-10-05 2006-04-06 Mitsugu Sato Charged particle beam apparatus and dimension measuring method
WO2009093247A1 (en) * 2008-01-22 2009-07-30 Applied Materials Israel Ltd. System and method for material analysis of a microscopic element
CN105408746A (zh) * 2013-02-28 2016-03-16 普罗吉涅股份有限公司 基于图像的人胚胎细胞分类的装置、方法和系统

Also Published As

Publication number Publication date
US20220148850A1 (en) 2022-05-12
TW202109338A (zh) 2021-03-01
JP2022541342A (ja) 2022-09-22
US12176182B2 (en) 2024-12-24
JP7535568B2 (ja) 2024-08-16
CN114207765A (zh) 2022-03-18
WO2021018725A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
TWI769371B (zh) 用於半導體裝置之檢測方法及系統,以及其非暫時性電腦可讀媒體
EP3921711B1 (en) Systems, methods, and media for artificial intelligence process control in additive manufacturing
TWI603087B (zh) 電子裝置的奈米探測方法
JP4737933B2 (ja) 加工工程のモニタおよび制御システムおよび制御方法
TWI630670B (zh) 偵測及校正疑難的先進製程控制參數之方法及系統
KR101970478B1 (ko) 자동화된 tem 샘플 준비
CN112424703A (zh) 以未知的倾斜执行销孔任务
JP2005251745A (ja) 荷電粒子ビーム装置プローブ操作
JP2023052869A (ja) 基板上の流動的対象を自動的にマッピングするための方法およびシステム
TWI794615B (zh) 微加工裝置的自動運作控制
US20220285226A1 (en) Apparatus and methods for three dimensional reticle defect smart repair
EP1812945B1 (en) Method and apparatus for the automated process of in-situ lift-out
KR20230122590A (ko) 반도체 시편의 전기적 특성들의 예측
KR20230163340A (ko) 인공 지능 기반 프로세스 종료 지시
EP4080301A1 (en) 3d tilt estimation and collision avoidance for laser cutting
Marturi et al. Visual servoing-based depth-estimation technique for manipulation inside SEM
TW202431459A (zh) 用於晶圓的成像資料集中缺陷識別的電腦實施方法、相應的電腦可讀媒介、電腦程式產品及利用此方法的系統
US12147216B2 (en) Machining program conversion device, numerical control device, and machining program conversion method
EP3618095A1 (en) Multi electron beam inspection methods and systems
CN110893515B (zh) 加工条件调整装置以及机器学习装置
TW202530702A (zh) 用於使用奈米操控器以處理樣本的電腦實施方法與設備
WO2021199235A1 (ja) 荷電粒子線装置
WO2024142316A1 (ja) 集束イオンビーム装置
CN117813603A (zh) 生成用于神经网络的扩充训练数据的系统和方法
JP2018152183A (ja) 微細構造体の製造方法および製造装置