[go: up one dir, main page]

TWI896321B - 用於印刷器的參數產生方法及參數產生裝置 - Google Patents

用於印刷器的參數產生方法及參數產生裝置

Info

Publication number
TWI896321B
TWI896321B TW113132960A TW113132960A TWI896321B TW I896321 B TWI896321 B TW I896321B TW 113132960 A TW113132960 A TW 113132960A TW 113132960 A TW113132960 A TW 113132960A TW I896321 B TWI896321 B TW I896321B
Authority
TW
Taiwan
Prior art keywords
machine learning
learning model
solder paste
printer
metal plate
Prior art date
Application number
TW113132960A
Other languages
English (en)
Inventor
鄒東臻
陳冠淳
陳國仁
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW113132960A priority Critical patent/TWI896321B/zh
Application granted granted Critical
Publication of TWI896321B publication Critical patent/TWI896321B/zh

Links

Landscapes

  • Electric Connection Of Electric Components To Printed Circuits (AREA)

Abstract

本發明提供一種用於印刷器的參數產生方法及參數產生裝置。輸入目標錫膏量資料至第一機器學習模型,第一機器學習模型輸出用於印刷器的多個預測製程參數。輸入多個預測製程參數至第二機器學習模型,第二機器學習模型輸出用於印刷器的預測錫膏量資料。依據最小化預測誤差,更新第一機器學習模型的權重,其中預測誤差是目標錫膏量資料及預測錫膏量資料之間的誤差。輸入目標錫膏量資料至更新的第一機器學習模型,更新的第一機器學習模型輸出多個新製程參數,並用於控制印刷器的運作。藉此,可提升運作效率。

Description

用於印刷器的參數產生方法及參數產生裝置
本發明是有關於一種表面黏著技術(Surface Mount Technology,SMT)的製程,且特別是有關於一種用於印刷器的參數產生方法及參數產生裝置。
表面黏著技術(Surface Mount Technology,SMT)是電子產業中不可或缺的關鍵製程。這技術主要是將電子元件直接黏著於印刷電路板(Printed Circuit Board,PCB)表面,具有高密度、高效率、低成本等優勢,並廣泛應用於消費性電子、通訊、汽車、醫療等領域。
然而,SMT製程涉及多種複雜參數,且這些參數的微小變化都可能對產品的品質及可靠性造成重大影響。傳統上,SMT製程參數的設定主要依賴工程師的經驗與嘗試錯誤法,不僅耗時費力,且難以達到最佳化。
本發明提供一種用於印刷器的參數產生方法及參數產生裝置,並可提供合適的製程參數。
本發明實施例的用於印刷器(Printer)的參數產生方法包括(但不僅限於)下列步驟:輸入目標錫膏量資料至第一機器學習模型,第一機器學習模型輸出用於印刷器的多個預測製程參數;輸入多個預測製程參數至第二機器學習模型,第二機器學習模型輸出用於印刷器的預測錫膏量資料,其中第二機器學習模型經訓練而學習多個錫膏量樣本與多個參數樣本之間的關聯;依據最小化預測誤差,更新第一機器學習模型的權重,其中預測誤差是目標錫膏量資料及預測錫膏量資料之間的誤差;以及輸入目標錫膏量資料至更新的第一機器學習模型,更新的第一機器學習模型輸出多個新製程參數,其中這些新製程參數用於控制印刷器的運作。
本發明實施例的用於印刷器的參數產生裝置包括(但不僅限於)儲存器及處理器。儲存器用以儲存程式碼。處理器耦接儲存器。處理器經配置用以載入程式碼並執行:輸入目標錫膏量資料至第一機器學習模型,第一機器學習模型輸出用於印刷器的多個預測製程參數;輸入多個預測製程參數至第二機器學習模型,第二機器學習模型輸出用於印刷器的預測錫膏量資料,其中第二機器學習模型經訓練而學習多個錫膏量樣本與多個參數樣本之間的關聯;依據最小化預測誤差,更新第一機器學習模型的權重,其中預測誤差是目標錫膏量資料及預測錫膏量資料之間的誤差;以及輸入目標錫膏量資料至更新的第一機器學習模型,更新的第一機器學習模型輸出多個新製程參數,其中這些新製程參數用於控制印刷器的運作。
基於上述,本發明實施例的印刷器的參數產生方法及參數產生裝置可輸入第一機器學習模型所產生的預測製程參數至第二機器學習模型,並依據最小化輸入至第一機器學習模型的目標錫膏量資料與第二機器學習模型所產生的預測錫膏量資料之間的預測誤差更新第一機器學習模型。接著,即可使用更新的第一機器學習模型產生新製程參數。藉此,印刷器使用新製程參數進行作業,可提升作業效率,降低誤判機會,並減少料材浪費。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1是依據本發明一實施例的參數產生裝置10的元件方塊圖。請參照圖1,參數產生裝置10包括(但不僅限於)儲存器11及處理器13。參數產生裝置10可以是手機、平板電腦、筆記型電腦、桌上型電腦、伺服器、語音助理裝置、智能家電、穿戴式裝置、製程設備或其他電子裝置。
儲存器11可以是任何型態的固定或可移動隨機存取記憶體(Radom Access Memory,RAM)、唯讀記憶體(Read Only Memory,ROM)、快閃記憶體(flash memory)、傳統硬碟(Hard Disk Drive,HDD)、固態硬碟(Solid-State Drive,SSD)或類似元件。在一實施例中,儲存器11用以儲存程式碼、軟體模組、組態配置、資料(例如,錫膏量資料、製程參數、特徵、或物理資訊)或檔案,並待後續實施例詳述。
處理器13耦接儲存器11。處理器13可以是中央處理單元(Central Processing Unit,CPU)、圖形處理單元(Graphic Processing unit,GPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位信號處理器(Digital Signal Processor,DSP)、可程式化控制器、現場可程式化邏輯閘陣列(Field Programmable Gate Array,FPGA)、特殊應用積體電路(Application-Specific Integrated Circuit,ASIC)、神經網路加速器或其他類似元件或上述元件的組合。在一實施例中,處理器13用以執行參數產生裝置10的所有或部份作業,且可載入並執行儲存器11所儲存的各程式碼、軟體模組、檔案及資料。
下文中,將搭配參數產生裝置10中的各項裝置、元件及模組說明本發明實施例所述的方法。本方法的各個流程可依照實施情形而隨之調整,且不僅限於此。
圖2是依據本發明一實施例的參數產生方法的流程圖。請參照圖2,處理器13輸入目標錫膏量資料至第一機器學習模型,第一機器學習模型輸出用於印刷器(printer)的多個預測製程參數(步驟S210)。具體而言,用於表面黏著技術(Surface Mount Technology,SMT)的印刷器的印刷作業包括:將金屬板(例如,鋼板或其他金屬材質的板子)放置於印刷電路板(Printed Circuit Board,PCB)上;對齊金屬板的孔洞及印刷電路板的焊盤(pad);使用刮刀將錫膏經由金屬板上的孔洞塗覆/印刷於印刷電路板。
目標錫膏量資料包括上述印刷作業中所欲塗覆/印刷於印刷電路板的錫膏量的數值。錫膏量可用百分比、體積或面積表示。百分比的表示例如是錫膏量佔參考量的比例。例如,100(%)表示錫膏量相同於參考量。可預先定義或視需求改變參考量。
預測製程參數是指第一機器學習模型所預測/輸出/產生的製程參數。文中的製程參數的類型可包括壓力(pressure)、印刷速度(print speed)、分離速度(separate speed)、分離距離(separation distance)、印刷間距(print gap)及清洗率(clean rate)。然而,還可能有其他類型的製程參數。
第一機器學習模型是機器學習演算法所訓練的模型。第一機器學習模型可經訓練而理解錫膏量與製程參數之間的關聯。機器學習演算法例如是人工神經網路(Artificial Neural Network,ANN)、極限梯度提升(eXtreme Gradient Boosting,XGboost)演算法、支持向量迴歸(Support Vector Regression,SVR)、卷積神經網路(Convolutional Neural Network,CNN)或其他演算法。在訓練過程中,機器學習演算法可依據最小化損失函數(例如,基於真實資料與輸出資料之間的誤差的函數)來調整模型中的參數(例如,權重)。當訓練初始階段時,模型可採用預設或初始參數。
圖3是依據本發明一實施例的第一機器學習模型ML1及第二機器學習模型ML2的示意圖。請參照圖3,第一機器學習模型ML1是單一輸入且多輸出的模型。也就是,第一機器學習模型ML1僅輸入目標錫膏量資料SP T,且輸出多個預測製程參數MP P1~MP Pi(i為大於一的正整數)。例如,若i為6,則預測製程參數MP P1為壓力的數值,預測製程參數MP P2為印刷速度的數值,預測製程參數MP P3為分離速度的數值,預測製程參數MP P4為分離距離的數值,預測製程參數MP P5為印刷間距的數值,且預測製程參數MP P6為清洗率的數值,然而,預測製程參數不限於此。
圖4是依據本發明一實施例的第一機器學習模型ML1的輸出調整的示意圖。請參照圖4,處理器13可使用第一機器學習模型ML1輸出初始參數(步驟S410)。具體而言,第一機器學習模型ML1可包括N層,層數N為大於一的正整數,且層數N可依據實際需求而調整。這M層可能是全連接層(Fully Connected layers)、卷積層、池化層等。初始參數是第一機器學習模型ML1一開始產生的製程參數。然而,初始參數的數值可能超出訓練資料的數值範圍,進而影響可信度。
表(1)是製程參數與其數值範圍: 表(1)
製程參數 數值範圍
印刷速度(公釐/秒) 0 ~ 200 (最小單位:1)
壓力(公斤) 0 ~ 20 (最小單位:0.2)
印刷間距(公釐) -1, -1 (最小單位:0.1)
清洗率(循環) 1以上的整數 (最小單位:1)
分離速度(公釐/秒) 0.1~5 (最小單位:0.1)
分離距離(公釐) 0.1~5(最小單位:0.1)
最小單位亦可稱為基本單位或基礎單位。以印刷速度為例,由小至大依序為20、25、30、35、40、45及50,且前後兩數值間隔最小單位(即,5)。
處理器13可將初始參數使用轉換函數SF轉換成可控值(步驟S420)。具體而言,轉換函數為階梯函數。例如,圖5是依據本發明一實施例說明階梯(step)函數及S型(sigmoid)函數的示意圖。請參照圖13,水準軸對應於初始參數,且垂直軸對應於經階梯函數SF 0轉換後的可控值。須說明的是,水準軸及垂直軸對應的單位須視對應製程參數的類型,如表(1)所示,但不以此為限。
處理器13可定義階梯函數SF 0呈現階梯狀,且在不同的數值區間(對應於函數的定義域 f( x),即初始參數)內具有固定的函數值(對應於函數的值域 x,即可控值)。梯函數SF 0的數學表示式 f( x)為: …(1)。
以圖5為例,當初始參數的數值介於0至2的數值區間時,經階梯函數SF 0轉換後的可控值皆為0*5=0(例如為0.7,於此例中採向下取整,故為0);當初始參數的數值介於2至3的數值區間時(例如為2.3,於此例中採向下取整,故為2),經階梯函數SF 0轉換後的可控值皆為2*5=10;當初始參數的數值介於3至4的數值區間時(例如為3.8,於此例中採向下取整,故為3),經階梯函數SF 0轉換後的可控值皆為4*5=20;依此類推,當初始參數的數值未於大於9的數值區間時,經階梯函數SF 0轉換後的可控值皆為40。須說明的是,圖5所示的定義域及值域的數值僅用於範例說明,且可依據實際需求而變更。
在一實施例中,階梯函數是相加多個S型函數所形成的。階梯函數可能有無法微分或微分為零,而使得梯度消失的情況。為了避免上情況,以圖5為例,階梯函數SF 0是相加多個S型函數SF 1、SF 2、SF 3、SF 4、SF 5、SF 6、SF 7、SF 8所形成的。也就是,處理器13可將多個不同S型函數SF 1、SF 2、SF 3、SF 4、SF 5、SF 6、SF 7、SF 8相加去近似階梯函數SF 0。S型函數SF 1將任意實數輸入映射到0到5的範圍;S型函數SF 2將任意實數輸入映射到5到10的範圍;依此類推,S型函數SF 8將任意實數輸入映射到35到40的範圍。
請參照圖4,處理器13可將可控值歸一化(Normalization)NOR成預測製程參數(步驟S430)。具體而言,歸一化是指將數據縮放到特定範圍的過程。例如,最小最大縮放器(MinMaxScaler)使用以下方程式(2)將數據縮放到0至1的範圍: z_scaled = (z - z_min) / (z_max - z_min)…(2) 其中z_scaled是縮放後的值(即,預測製程參數的數值),z是原始值(即,可控值),z_min是原始數據的最小值,且z_max是原始數據的最大值。須說明的是,方程式(2)的最小值z_min及最大值z_max可依據實際需求而調整。
請參照圖2,處理器130輸入多個預測製程參數至第二機器學習模型,第二機器學習模型輸出用於印刷器的預測錫膏量資料(步驟S220)。具體而言,第二機器學習模型是透過機器學習演算法所訓練的模型。機器學習演算法例如是人工神經網路(ANN)、極限梯度提升(XGboost)演算法、支持向量迴歸(SVR)、卷積神經網路(CNN)或其他演算法。第二機器學習模型可經訓練而理解多個錫膏量樣本與多個參數樣本之間的關聯。用於訓練及/或驗證的,資料集包括錫膏量樣本及多個參數樣本。
錫膏量樣本包括印刷作業中塗覆/印刷於印刷電路板的歷史錫膏量的數值。錫膏量可用百分比、體積或面積表示。百分比的表示例如是錫膏量佔參考量的比例。例如,100(%)表示錫膏量相同於參考量。可預先定義或視需求改變參考量。此外,每一錫膏量樣本對應於一組參數樣本。參數樣本是製程參數的訓練樣本。印刷器在印刷作業中採用的一組參數樣本(包括多個參數樣本),而這印刷作業所使用的錫膏量的數值即可作為對應於這組參數樣本的一筆錫膏量樣本。由於錫膏量樣本及其對應的一組參數樣本是已知,因此機器學習演算法可分析已標記的錫膏量樣本(例如,已確定製程參數的錫膏量),並建立錫膏量樣本(作為輸出樣本)及參數樣本(作為輸入樣本)之間的關聯。而第二機器學習模型即是經訓練而學習後所建構出的模型,並可據以對待評估資料(例如,待評估的(預期)製程參數,即模型的輸入)推論,以產生對應的預測錫膏量資料(即,模型的輸出)。
請參照圖3,第二機器學習模型ML2是多輸入且單一輸出的模型。也就是,第二機器學習模型ML2輸入多個預測製程參數MP P1~MP Pi(i為大於一的正整數),且輸出預測錫膏量資料SP P
在一實施例中,處理器13可輸入多個預測製程參數MP P1~MP Pi及輔助參數AP至第二機器學習模型ML2。也就是,除了預測製程參數MP P1~MP Pi,第二機器學習模型ML2的輸入更包括輔助參數AP。輔助參數的類型包括溫度、濕度及金屬板在印刷器的定位位置。溫度及濕度是印刷器在印刷作業的環境中所感測的環境參數。
圖6是依據本發明一實須說明施例說明定位位置的示意圖。請參照圖6,印刷器P包括水準軸致動器、垂直軸後致動器及垂直軸前致動器。水準軸致動器用於定位金屬板在水準軸的方向上的定位位置P Y,且垂直軸後致動器及垂直軸前致動器分別用於定位金屬板在垂直軸的方向上的定位位置P RX、P FX。這些定位位置P Y、P RX、P FX是用於在印刷作業中對齊金屬板的孔洞及印刷電路板的焊盤。定位位置P Y、P RX、P FX可用座標、相對距離或相對位置表示。定位位置P Y、P RX、P FX可能影響錫膏量的多寡。
此外,在第二機器學習模型的訓練中,資料集更包括輔助樣本。輔助樣本包括印刷作業中的量測到的溫度、濕度及致動器的定位位置。由於錫膏量樣本、其對應的一組參數樣本及輔助樣本是已知,因此機器學習演算法可分析已標記的錫膏量樣本(例如,已確定製程參數及輔助參數的錫膏量),並建立錫膏量樣本(作為輸出樣本)、參數樣本及輔助樣本(作為輸入樣本)之間的關聯。而第二機器學習模型即是經訓練而學習後所建構出的模型,並可據以對待評估資料(例如,待評估的(預期)製程參數及輔助參數,即模型的輸入)推論,以產生對應的預測錫膏量資料(即,模型的輸出)。
例如,模型的輸入"前刮刀印刷壓力":8.4 公斤、“後刮刀印刷壓力”:9.0公斤、"印刷間隙":-0.6公釐、"前刮刀印刷速度":60公釐/秒、“後刮刀印刷速度”:60公釐/秒、"脫模距離":0.4公釐,"脫模速度":0.2公釐/秒、及"清潔頻率":1.0 板子數。模型的輸出為面積百分比(面積檢測值/面積目標值):100.3%、高度百分比(高度檢測值/高度目標值):101.3%、及體積百分比(體積檢測值/體積目標值):103.9%。
圖7是依據本發明一實施例說明允收篩選的示意圖。請參照圖7,錫膏檢查機(Solder Paste Inspection,SPI)可檢測印刷作業完成的電路板上的印刷品質。例如,如圖所示的電路板的立體圖,更可醒目顏色標記有問題的焊盤。此外,錫膏檢查機可量測電路板上的實際錫膏量資料。實際錫膏量資料是錫膏的高度、面積及/或體積。第二機器學習模型的允收標準可以是面積、高度及/或體積與預測錫膏量資料之間的差異小於對應門檻值(例如,10%、5%或3%)。也就是,僅使用與預測錫膏量資料差異小於對應門檻值的第二機器學習模型。
請參照圖2,處理器13依據最小化預測誤差,更新第一機器學習模型的權重(步驟S230)。具體而言,預測誤差是目標錫膏量資料及預測錫膏量資料之間的誤差。在機器學習中,模型訓練的目標是最小化預測誤差,以提高模型的預測準確性。這個過程涉及以下幾個關鍵:損失函數(Loss Function)、優化演算法(Optimization Algorithm)、梯度(Gradient)、疊代更新(Iterative Update)及收斂(Convergence)。
在一實施例中,處理器13可使用損失函數決定預測誤差。損失函數為目標錫膏量資料與預測錫膏量資料的數值差異的平方的一半。損失函數LOSS的數學表示式如下: …(3) ,其中預測錫膏量資料是輸入預測製程參數(及輔助參數)至第二機器學習模型所產生/輸出的。
優化演算法用於調整模型的參數,使得損失函數的值盡可能小。優化演算法例如是梯度下降法、牛頓法或亞當(Adam)。梯度是損失函數在某一點的導數,並表示損失函數在這一點的變化方向和大小。優化演算法利用梯度資訊指導參數的更新。此外,第一機器學習模型的訓練是一個疊代的過程。在每次疊代中,優化演算法依據梯度資訊更新模型的參數(例如,節點的權重),使得損失函數逐漸減小。當損失函數的值不再顯著下降,或者達到預設的停止條件時,即可停止模型的訓練。此時,第一機器學習模型的參數達到了一種相對優化的狀態,並據以產生更新的第一機器學習模型。
請參照圖2,處理器13輸入目標錫膏量資料至更新的第一機器學習模型,更新的第一機器學習模型輸出多個新製程參數(步驟S240)。具體而言,多個新製程參數用於控制印刷器的運作(例如,上述印刷作業)。處理器13將目標錫膏量資料輸入至更新的第一機器學習模型。新製程參數即是由更新的第一機器學習模型所推論或預測符合目標錫膏量資料的製程參數。
例如,模型的輸入為面積百分比(面積檢測值/面積目標值):100%、高度百分比(高度檢測值/高度目標值):100%、體積百分比(體積檢測值/體積目標值):100%。模型的輸出為"前刮刀印刷壓力":8.8公斤、“後刮刀印刷壓力”:9.6 公斤、"印刷間隙":-0.4 公釐、"前刮刀印刷速度":45公釐/秒、“後刮刀印刷速度”:45公釐/秒、"脫模距離":0.4公釐、"脫模速度":0.2公釐/秒、及"清潔頻率":2.0板子數。
在一實施例中,處理器13可依據新製程參數產生操作指令或操作設定,且印刷器可使用這操作指定或操作設定進行印刷作業,並據以操作在新製程參數下。
上述實施例的錫膏量資料可針對一整塊金屬板的印刷作業。例如,可稱為整板錫膏量或整板所用的錫膏量。以下再介紹針對金屬板對應的多個焊盤(pad)的一者或多者提供合適的錫膏量。圖8是依據本發明一實施例的第三機器學習模型的示意圖。請參照圖8,處理器13輸入多個待評估特徵EF 1、EF 2、…、EF j(j為大於一的正整數)至第三機器學習模型ML3,產生用於印刷器的孔洞錫膏量資料SP P2。具體而言,第三機器學習模型ML3是機器學習演算法所訓練的模型。機器學習演算法例如是人工神經網路(ANN)、極限梯度提升(XGboost)演算法、支持向量迴歸(SVR)、卷積神經網路(CNN)或其他演算法。第三機器學習模型ML3可經訓練而學習多個孔洞特徵與錫膏量之間的關聯。
孔洞特徵包括多個孔洞在金屬板上的開孔比例及這些孔洞在金屬板上的分佈位置。例如,圖9是依據本發明一實施例說明的開孔比例的示意圖。請參照圖9,開孔比例可以是開孔寬厚比例及開孔面積比例。以金屬板S1的一個孔洞PD 1為例,這孔洞PD 1的開孔寬厚比例為:孔洞PD 1的寬W/金屬片S1的厚度T;而孔洞PD 1的開孔面積比例為:焊盤的面積(即,孔洞PD 1的寬W*孔洞PD 1的長L)/孔洞牆的面積(即,2*(孔洞PD 1的寬W+孔洞PD 1的長L)*金屬片S1的厚度T)。孔洞PD 1在金屬板S1上的分佈位置即為孔洞PD 1在金屬板S1的位置,並可以使用座標、相對距離或相對位置表示。
而孔洞錫膏量資料包括用於多個孔洞的錫膏量。在印刷作業之後,錫膏檢查機可量測多個孔洞的每一者的錫膏量,並可儲存其面積、體積或與參考量的百分比。而孔洞錫膏量資料中的針對某一個孔洞或焊盤的錫膏量可以是整塊金屬板的錫膏量*每一焊盤佔整板錫膏量的比例。
此外,每一組孔洞錫膏量資料對應於多個孔洞特徵。印刷器在印刷作業中採用相同的製程參數對每一孔洞填入錫膏。由於孔洞錫膏量資料及其對應的一組孔洞特徵是已知,因此機器學習演算法可分析已標記的孔洞錫膏量資料(例如,已確定孔洞特徵的孔洞或焊盤的錫膏量),並建立錫膏量(作為輸出樣本)及孔洞特徵(作為輸入樣本)之間的關聯。而第三機器學習模型即是經訓練而學習後所建構出的模型,並可據以對待評估資料(例如,待評估特徵EF 1、EF 2、…、EF j(例如,待評估的孔洞在金屬板上的開孔比例及分佈位置,即模型的輸入)推論,以產生對應的孔洞錫膏量資料(即,模型的輸出)。而每一焊盤佔整板錫膏量的比例為這焊盤/孔洞的目標錫膏量除以相同金屬板的所有焊盤/孔洞的目標錫膏量。
例如,表(2)是模型的輸入及模型的輸出的實驗數據: 表(2)
模型的輸入 模型的輸出
寬厚比例 面積比例 水準軸位置 垂直軸位置 面積板百分比 高度百分比 體積百分比
10.41 2.9825 163.48 168.00 1.03 1.02 1.08
5.6 1.4634 79.06 41.78 1.02 1.05 1.09
13.97 3.8872 30.8938 32.7351 1.06 0.97 1.05
圖10是依據本發明一實施例說明錫膏量分區預測的示意圖。請參照圖10,金屬板可區分為多個區塊,如圖所示九個區塊G11、G12、G13、G21、G22、G23、G31、G32、G33。預測結果例如是: 表(3)
1.10/1.48/6.10 1.09/1.51/6.11 1.08/1.41/5.69
1.02/1.14/4.57 1.05/1.24/4.95 1.01/1.14/4.57
1.08/1.41/5.69 1.08/1.51/6.11 1.09/1.48/6.10
表中的每一格為體積百分比/面積百分比/寬厚比。
圖11是依據本發明一實施例的錫膏量的真實與預測比較的示意圖。請參照圖11,真實與預測的誤差可小於10%,且相關性可大於0.87。
圖12是依據本發明一實施例的模型診斷及調整的流程圖。請參照圖12,錫膏檢查機可量測某一鋼板(即,金屬板)或印刷電路板的錫膏量(例如,高度錫膏量、面積錫膏量及/或體積錫膏量),並作為量測值。處理器13可判斷這鋼板或印刷電路板是否未存在對應的人工智慧模型(AI model)(例如,上述第一、第二或第三機器學習模型)(步驟S121)。若未存在對應模型,則處理器13可進行模型訓練(步驟S122)。例如,收集這鋼板近30天的資料(例如,孔洞特徵),移除遺失或異常值,每當收集的資料量大於或等於三十筆且參數的設定值大於或等於二才重新訓練,且最後驗證預測的面積、高度及/或體積與量測值之間的誤差是否小於對應門檻值(例如,10%、5%或3%)。若驗證的結果是誤差小於對應門檻值,則可將第三機器學習模型上線。
若已存在對應模型,則處理器13判斷工單序號是否改變(步驟S123)。若未改變,則處理器13確認這模型的預測誤差是否大於誤差門檻值(例如,10%、5%或3%)(步驟S124)。若預測誤差未大於誤差門檻值,則處理器13等待下一個鋼板的量測值。
若預測誤差大於誤差門檻值或工單序號已改變,則將這模型離線(步驟S125),並使用量測值進一步調教(tuning)這模型(步驟S126)。例如,使用最近一個工單的資料(例如,孔洞特徵),移除遺失或異常值,每當收集的資料量大於或等於五筆才重新訓練,且最後驗證預測的面積、高度及/或體積與量測值之間的誤差是否小於對應門檻值(例如,10%、5%或3%)。若驗證的結果是誤差小於對應門檻值,則可將AI模型上線。
在一實施例中,處理器13可決定金屬板物理特徵屬於多個金屬板群組中的第一群組。金屬板物理特徵例如是金屬板的類型、尺寸、元件數量、孔洞數量、孔洞寬厚比的上限及下限及/或孔洞面積比的上限及下限。針對未知或新的金屬板,處理器13可取得這金屬板的金屬板物理特徵的量測值。
針對金屬板群組,處理器13可提供多個第二機器學習模型。第二機器學習模型如前述說明,於此不再贅述。每一第二機器學習模型對應於多個歷史金屬板物理資訊中的一者,且任一第二機器學習模型對應的歷史金屬板物理資訊不同於另一第二機器學習模型對應的歷史金屬板物理資訊。一筆歷史金屬板物理資訊是已知的金屬板的金屬板物理特徵的量測值。例如,上述作為第二機器學習模型的訓練樣本對應的金屬板的量測值。不同金屬板可能有不同的金屬板物理特徵的量測值。因此,處理器13可分別對不同金屬板對應的訓練樣本進行訓練,並據以產生多個第二機器學習模型。或者,模型訓練是由其他裝置完成,且處理器13可取得已訓練的多個第二機器學習模型。
接著,處理器13可將多筆歷史金屬板物理資訊分群成多個金屬板群組。分群的方法(又稱叢集法(clustering))可以是k-平均演算法(K-means)、高斯混合模型(Gaussian Mixture Model, GMM)、聚類演算法(Mean-Shift)、階層式(Hierarchical)叢集法、譜(Spectral)分群演算法、DBSCAN(Density-based spatial clustering of applications with noise)演算法或其他分群演算法。分群可對歷史金屬板物理資訊分類,並將相似歷史金屬板物理資訊歸類至同一金屬板群組。
圖13是依據本發明一實施例說明分群的示意圖,且圖14是依據本發明一實施例說明階層式叢集法的示意圖。請參照圖13及圖14,以階層式叢集法為例,處理器13計算樣本(例如,歷史金屬板物理資訊)之間的距離(步驟S131)。例如,特徵坐標系中的歐基裡德距離。處理器13將距離最近的樣本組合成一群,並成為新的組合樣本。樣本G1與樣本G2組合成一群(步驟S132)。接著,持續計算樣本及/或組合樣本之間的距離並將距離最近的樣本及/或組合樣本組合成一群。樣本G4與樣本G5組合成一群(步驟S133)。樣本G1與樣本G2的組合樣本與樣本G3組合成一群(步驟S134)。最後,樣本G1至樣本G3的組合樣本與樣本G4與樣本G5的組合樣本組合成一群(步驟S135),使得所有樣本G1至G5都成為一個組合樣本。如圖14所示,處理器13依據樣本G1至G5之間的距離切割,並據以決定群組的數量為5。
當某一金屬板群組僅有一筆金屬板物理資訊(即,對應於一個金屬板)時,則這金屬板物理資訊對應的第二機器學習模型可直接作為這金屬板群組的代表。
針對多個金屬板群組中的第一群組,處理器13可選擇第一群組對應的多個第二機器學習模型中具有最小的預測誤差的一者作為第一群組對應的第二機器學習模型。也就是說,某一金屬板群組(例如,第一群組)具有多筆金屬板物理資訊(即,對應於多個金屬板)時,處理器13可比較這些金屬板物理資訊對應的第二機器學習模型的預測誤差,並選擇具有最小預測誤差的第二機器學習模型作為這金屬板群組的代表(即,第一群組對應的第二機器學習模型)。
當(僅當)待評估的金屬板物理特徵屬於多個金屬板群組中的第一群組時,處理器13可選擇這第一群組對應的第二機器學習模型用於產生預測錫膏量資料。例如,處理器13輸入多的待評估的製程參數至第二機器學習模型,且第二機器學習模型輸出用於印刷器的預測錫膏量資料。
圖15是依據本發明一實施例說明驗證的實驗圖。請參照圖15,分別針對錫膏量的體積百分比、高度百分比及面積百分比進行驗證。圖中左半部是使用既有的製程參數,且右半部是使用由更新的第一機器學習模型產生的新製程參數。左半部的錫膏量的體積百分比的變異較大(介於1.01至1.43),而右半部的錫膏量的體積百分比的變異較小(介於1.21至1.31)。左半部的錫膏量的高度百分比的變異較大(介於1.15至1.42),甚至偵測到缺陷,而右半部的錫膏量的高度百分比的變異較小(介於1.21至1.29)。左半部的錫膏量的面積百分比的變異較大(介於0.83至1.04),而右半部的錫膏量的面積百分比的變異較小(介於0.99至1.05)。由此可證明,使用新製程參數的印刷作業,不僅錫膏量的變異較小,更能避免出現缺陷。此外,使用新製程參數的印刷作業還能增進效率(例如,提升8%)。
綜上所述,在本發明實施例的用於印刷器的參數產生方法中,使用兩機器學習模型更新模型權重,並使用更新的機器學習模型產生新製程參數。藉此,使用新製程參數的印刷作業所用的錫膏量可接近或相同於目標錫膏量。此外,可降低錫膏量的變異程度,減少或避免產生缺陷,且提升印刷作業的效率。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
10:參數產生裝置 11:儲存器 13:處理器 S210~S240、S410~ S430、S121~ S126、S131~ S135:步驟 ML1:第一機器學習模型 ML2:第二機器學習模型 SP T:目標錫膏量資料 MP P1~ MP Pi:預測製程參數 SF、SF 0:階梯函數 NOR:歸一化 SF 1~ SF 8:S型函數 SP P:預測錫膏量資料 AP:輔助參數 P:印刷器 P Y、P RX、P FX:定位位置 EF 1、EF 2、EF j:待評估特徵 ML3:第三機器學習模型 SP P2:孔洞錫膏量資料 S1:金屬板 PD 1:孔洞 W:寬 T:厚度 L:長 G11、G12、G13、G21、G22、G23、G31、G32、G33:區塊 G1、G2、G3、G4、G5:樣本
圖1是依據本發明一實施例的參數產生裝置的元件方塊圖。 圖2是依據本發明一實施例的參數產生方法的流程圖。 圖3是依據本發明一實施例的第一機器學習模型及第二機器學習模型的示意圖。 圖4是依據本發明一實施例的第一機器學習模型的輸出調整的示意圖。 圖5是依據本發明一實施例說明階梯(step)函數及S型(sigmoid)函數的示意圖。 圖6是依據本發明一實施例說明定位位置的示意圖。 圖7是依據本發明一實施例說明允收篩選的示意圖。 圖8是依據本發明一實施例的第三機器學習模型的示意圖。 圖9是依據本發明一實施例說明孔洞的開孔比例的示意圖。 圖10是依據本發明一實施例說明錫膏量分區預測的示意圖。 圖11是依據本發明一實施例的錫膏量的真實與預測比較的示意圖。 圖12是依據本發明一實施例的模型診斷及調整的流程圖。 圖13是依據本發明一實施例說明分群的示意圖。 圖14是依據本發明一實施例說明階層式叢集法(hierarchical clustering)的示意圖。 圖15是依據本發明一實施例說明驗證的實驗圖。
S210~S240:步驟

Claims (20)

  1. 一種用於印刷器(Printer)的參數產生方法,包括:輸入一目標錫膏量資料至一第一機器學習模型,該第一機器學習模型輸出用於一印刷器的多個預測製程參數,其中該目標錫膏量資料包括用於一金屬板的錫膏量,該第一機器學習模型是單一輸入且多輸出的模型,且該第一機器學習模型僅輸入該目標錫膏量資料;輸入該些預測製程參數至一第二機器學習模型,該第二機器學習模型輸出用於該印刷器的一預測錫膏量資料,其中該第二機器學習模型經訓練而學習多個錫膏量樣本與多個參數樣本之間的關聯;依據最小化一預測誤差,更新該第一機器學習模型的權重,其中該預測誤差是該目標錫膏量資料及該預測錫膏量資料之間的誤差;以及輸入該目標錫膏量資料至更新的該第一機器學習模型,該更新的第一機器學習模型輸出多個新製程參數,其中該些新製程參數用於控制該印刷器的運作。
  2. 如請求項1所述的用於印刷器的參數產生方法,其中依據最小化該預測誤差更新該第一機器學習模型的權重的步驟包括:使用一損失函數決定該預測誤差,其中該損失函數為該目標錫膏量資料與該預測錫膏量資料的數值差異的平方的一半。
  3. 如請求項1所述的用於印刷器的參數產生方法,其中該些新製程參數包括該印刷器運作所用的多個印刷參數。
  4. 如請求項3所述的用於印刷器的參數產生方法,其中該些印刷參數的類型包括壓力(pressure)、印刷速度(print speed)、分離速度(separate speed)、分離距離(separation distance)、印刷間距(print gap)及清洗率(clean rate)。
  5. 如請求項1所述的用於印刷器的參數產生方法,更包括:輸入多個待評估特徵至一第三機器學習模型,該第三機器學習模型輸出用於該印刷器的一孔洞錫膏量資料,其中該第三機器學習模型經訓練而學習多個孔洞特徵與錫膏量之間的關聯,該些孔洞特徵包括多個孔洞在一金屬板上的開孔比例及該些孔洞在該金屬板上的分佈位置,且該孔洞錫膏量資料包括用於該些孔洞的錫膏量。
  6. 如請求項1所述的用於印刷器的參數產生方法,其中該第一機器學習模型輸出用於該印刷器的該些預測製程參數的步驟包括:使用該第一機器學習模型輸出一初始參數;將該初始參數使用一轉換函數轉換成一可控值,其中該轉換函數為一階梯函數;以及將該可控值歸一化成一該預測製程參數。
  7. 如請求項6所述的用於印刷器的參數產生方法,其中該階梯函數是相加多個S型(sigmoid)函數所形成的。
  8. 如請求項1所述的用於印刷器的參數產生方法,其中輸入該些預測製程參數至該第二機器學習模型的步驟包括:輸入該些預測製程參數及一輔助參數至該第二機器學習模型,其中該輔助參數的類型包括一溫度、一濕度及一金屬板在該印刷器的一定位位置。
  9. 如請求項1所述的用於印刷器的參數產生方法,更包括:決定一金屬板物理特徵屬於多個金屬板群組中的一第一群組;以及選擇該第一群組對應的該第二機器學習模型用於產生該預測錫膏量資料。
  10. 如請求項9所述的用於印刷器的參數產生方法,更包括:提供多個該第二機器學習模型,其中每一該第二機器學習模型對應於多個歷史金屬板物理資訊中的一者,且任一該第二機器學習模型對應的該歷史金屬板物理資訊不同於另一該第二機器學習模型對應的該歷史金屬板物理資訊;將該些歷史金屬板物理資訊分群成該些金屬板群組;以及針對該些金屬板群組中的該第一群組,選擇該第一群組對應的該些第二機器學習模型中具有最小的該預測誤差的一者作為該第一群組對應的該第二機器學習模型。
  11. 一種用於印刷器的參數產生裝置,包括:一儲存器,儲存一程式碼;以及一處理器,耦接該儲存器,載入該程式碼並執行:輸入一目標錫膏量資料至一第一機器學習模型,該第一機器學習模型產生用於一印刷器的多個預測製程參數,其中該目標錫膏量資料包括用於一金屬板的錫膏量,該第一機器學習模型是單一輸入且多輸出的模型,且該第一機器學習模型僅輸入該目標錫膏量資料;輸入該些預測製程參數至一第二機器學習模型,該第二機器學習模型產生用於該印刷器的一預測錫膏量資料,其中該第二機器學習模型經訓練而學習多個錫膏量樣本與多個參數樣本之間的關聯;依據最小化一預測誤差,更新該第一機器學習模型的權重,其中該預測誤差是該目標錫膏量資料及該預測錫膏量資料之間的誤差;以及輸入該目標錫膏量資料至更新的該第一機器學習模型,該更新的第一機器學習模型輸出多個新製程參數,其中該些新製程參數用於控制該印刷器的運作。
  12. 如請求項11所述的用於印刷器的參數產生裝置,其中該處理器更執行:使用一損失函數決定該預測誤差,其中該損失函數為該目標錫膏量資料與該預測錫膏量資料的數值差異的平方的一半。
  13. 如請求項11所述的用於印刷器的參數產生裝置,其中該些新製程參數包括該印刷器運作所用的多個印刷參數。
  14. 如請求項13所述的用於印刷器的參數產生裝置,其中該些印刷參數的類型包括壓力(pressure)、印刷速度(print speed)、分離速度(separate speed)、分離距離(separation distance)、印刷間距(print gap)及清洗率(clean rate)。
  15. 如請求項11所述的用於印刷器的參數產生裝置,其中該處理器更執行:輸入多個待評估特徵至一第三機器學習模型,產生用於該印刷器的一孔洞錫膏量資料,其中該第三機器學習模型經訓練而學習多個孔洞特徵與錫膏量之間的關聯,該些孔洞特徵包括多個孔洞在一金屬板上的開孔比例及該些孔洞在該金屬板上的分佈位置,且該孔洞錫膏量資料包括用於該些孔洞的錫膏量。
  16. 如請求項11所述的用於印刷器的參數產生裝置,其中該處理器更執行:使用該第一機器學習模型輸出一初始參數;將該初始參數使用一轉換函數轉換成一可控值,其中該轉換函數為一階梯函數;以及將該可控值歸一化成一該預測製程參數。
  17. 如請求項16所述的用於印刷器的參數產生裝置,其中該階梯函數是相加多個S型(sigmoid)函數所形成的。
  18. 如請求項11所述的用於印刷器的參數產生裝置,其中該處理器更執行:輸入該些預測製程參數及一輔助參數至該第二機器學習模型,其中該輔助參數的類型包括一溫度、一濕度及一金屬板在該印刷器的一定位位置。
  19. 如請求項11所述的用於印刷器的參數產生裝置,其中該處理器更執行:決定一金屬板物理特徵屬於多個金屬板群組中的一第一群組,其中該金屬板物理特徵的類型相關於一金屬板的尺寸、及該金屬板上的多個孔洞的面積及厚度;以及選擇該第一群組對應的該第二機器學習模型用於產生該預測錫膏量資料。
  20. 如請求項19所述的用於印刷器的參數產生裝置,其中該處理器更執行:提供多個該第二機器學習模型,其中每一該第二機器學習模型對應於多個歷史金屬板物理資訊中的一者,且任一該第二機器學習模型對應的該歷史金屬板物理資訊不同於另一該第二機器學習模型對應的該歷史金屬板物理資訊;將該些歷史金屬板物理資訊分群成該些金屬板群組;以及針對該些金屬板群組中的該第一群組,選擇該第一群組對應的該些第二機器學習模型中具有最小的該預測誤差的一者作為該第一群組對應的該第二機器學習模型。
TW113132960A 2024-08-30 2024-08-30 用於印刷器的參數產生方法及參數產生裝置 TWI896321B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW113132960A TWI896321B (zh) 2024-08-30 2024-08-30 用於印刷器的參數產生方法及參數產生裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW113132960A TWI896321B (zh) 2024-08-30 2024-08-30 用於印刷器的參數產生方法及參數產生裝置

Publications (1)

Publication Number Publication Date
TWI896321B true TWI896321B (zh) 2025-09-01

Family

ID=97831685

Family Applications (1)

Application Number Title Priority Date Filing Date
TW113132960A TWI896321B (zh) 2024-08-30 2024-08-30 用於印刷器的參數產生方法及參數產生裝置

Country Status (1)

Country Link
TW (1) TWI896321B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202119250A (zh) * 2019-11-14 2021-05-16 新加坡商鴻運科股份有限公司 產品印刷參數設定裝置、方法及電腦可讀取存儲介質
CN115066986A (zh) * 2020-02-11 2022-09-16 三星电子株式会社 印刷电路板组件和包括其的电子装置
TW202331577A (zh) * 2022-01-24 2023-08-01 和碩聯合科技股份有限公司 最佳化參數的產生方法及產生裝置
CN118247262A (zh) * 2024-04-25 2024-06-25 天津大学 一种基于XGBoost-LSTM混合模型的锡膏印刷质量预测系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202119250A (zh) * 2019-11-14 2021-05-16 新加坡商鴻運科股份有限公司 產品印刷參數設定裝置、方法及電腦可讀取存儲介質
CN115066986A (zh) * 2020-02-11 2022-09-16 三星电子株式会社 印刷电路板组件和包括其的电子装置
TW202331577A (zh) * 2022-01-24 2023-08-01 和碩聯合科技股份有限公司 最佳化參數的產生方法及產生裝置
CN118247262A (zh) * 2024-04-25 2024-06-25 天津大学 一种基于XGBoost-LSTM混合模型的锡膏印刷质量预测系统及方法

Similar Documents

Publication Publication Date Title
JP5418408B2 (ja) シミュレーションパラメータ校正方法、装置及びプログラム
US20230195986A1 (en) Method for predicting delay at multiple corners for digital integrated circuit
CN110928264B (zh) 数据处理、数据处理装置以及计算机可读取记录介质
JP2011513993A (ja) プロセスデータおよび生産量データを使用するプロセス制御
KR20210055057A (ko) 학습 장치, 추론 장치 및 학습 완료 모델
JP2023052477A (ja) データ処理方法およびデータ処理プログラム
US20190392322A1 (en) Electronic component packaging type classification system using artificial neural network
JP6869589B1 (ja) 情報処理装置、方法及びプログラム
WO2009055589A1 (en) Process simulation framework
CN114970657A (zh) 异常度计算系统及方法
TWI896321B (zh) 用於印刷器的參數產生方法及參數產生裝置
WO2022185969A1 (ja) データ収集システム、データ収集装置、データ収集方法及びデータ収集プログラム
CN110928265B (zh) 数据处理方法、装置与系统、以及计算器可读取记录介质
CN111461329B (zh) 一种模型的训练方法、装置、设备及可读存储介质
TWI799104B (zh) 最佳化參數的產生方法及產生裝置
CN120258175A (zh) 数据预测方法、装置、设备、存储介质及程序产品
KR20230080213A (ko) 최적 입력 데이터 생성 장치 및 방법
CN118345334B (zh) 膜层厚度的校正方法、装置、计算机设备
JP6813231B1 (ja) 制御装置、方法、プログラム及びシステム
CN114681923B (zh) 检测异常装置操作的方法及电子装置
CN113489012A (zh) 配电网潮流态势推演方法、平台及设备、存储介质
JP7462905B2 (ja) 制御装置、方法、プログラム及びシステム
JP7802949B2 (ja) ニューラル・ネットワークの推論を加速するための量子化方法
JP2021135683A (ja) 学習装置、推論装置、学習方法及び推論方法
JP7716721B2 (ja) パラメータ自動調整装置、パラメータ自動調整システム及びパラメータ自動調整方法