TWI819578B - 多目標參數最佳化系統、方法及電腦程式產品 - Google Patents
多目標參數最佳化系統、方法及電腦程式產品 Download PDFInfo
- Publication number
- TWI819578B TWI819578B TW111115048A TW111115048A TWI819578B TW I819578 B TWI819578 B TW I819578B TW 111115048 A TW111115048 A TW 111115048A TW 111115048 A TW111115048 A TW 111115048A TW I819578 B TWI819578 B TW I819578B
- Authority
- TW
- Taiwan
- Prior art keywords
- neural network
- combination
- trained neural
- value
- parameter optimization
- Prior art date
Links
Landscapes
- Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
- Feedback Control In General (AREA)
- Hardware Redundancy (AREA)
Abstract
一種多目標參數最佳化系統,用於提供一線切割放電加工機的多個最佳化加工參數。該系統包括:複數個訓練後類神經網路及一參數最佳化模組。每個訓練後類神經網路根據一加工參數組合而各自輸出一目標預測值。參數最佳化模組執行一基因演算法,以利用該等訓練後類神經網路根據該加工參數組合的多種數值組合所輸出的該等目標預測值來找出該加工參數組合的至少一最佳化數值組合。
Description
本發明屬於人工智慧領域,特別是類神經網路相關的人工智慧領域。
線切割放電加工機是生產製造業中常用的機器,其根據不同的加工參數組合,可產生不同的加工品質。一般而言,為了達到使用者要求的加工品質,必須透過資深操作技師依照過去累積的經驗,以人力的方式調整所需的加工參數組合,然而此過程將耗費大量時間成本及人力,且也未必能調整出最佳化的加工參數組合。
由此可知,目前的技術仍有改善的空間。對此,本發明提供一種多目標參數最佳化系統、方法及電腦程式產品,能有效解決上述問題。
根據本發明的一觀點,茲提出一種用於提供線切割放電加工機的多目標最佳化加工參數的多目標參數最佳化系統。該系統包含複數訓練後類神經網路及參數最佳化模組。每個訓練後類神經網路根據加工參數組合而各自輸
出目標預測值。參數最佳化模組執行基因演算法,以利用該等訓練後類神經網路根據加工參數組合的多種數值組合所輸出的該等目標預測值來找出加工參數組合的最佳化的數值組合。
根據本發明的另一觀點,是提供一種用於提供線切割放電加工機的多目標最佳化加工參數的多目標參數最佳化方法,該方法由多目標參數最佳化系統執行。多目標參數最佳化系統包含複數訓練後類神經網路及參數最佳化模組,且每個訓練後類神經網路根據加工參數組合而各自輸出目標預測值。其中該方法包含步驟:藉由參數最佳化模組執行一基因演算法,以利用該等訓練後類神經網路根據加工參數組合的多種數值組合所輸出的該等目標預測值來找出加工參數組合的最佳化數值組合。
根據本發明又另一觀點,提供一種儲存於一非暫態電腦可讀取媒體之中的電腦程式產品,用以使多目標參數最佳化系統運作,以提供線切割放電加工機的多目標最佳化加工參數。多目標參數最佳化系統複數訓練後類神經網路及參數最佳化模組,且每個訓練後類神經網路根據加工參數組合而各自輸出目標預測值。其中該電腦程式產品包含:指令,使參數最佳化模組執行基因演算法,以利用該等訓練後類神經網路根據加工參數組合的多種數值組合所輸出的該等目標預測值來找出加工參數組合的最佳化數值組合。
1:多目標參數最佳化系統
2:訓練後類神經網路群組
3:參數最佳化模組
4:遷移學習模組
10:線切割放電加工機
21:第一類神經網路
22:第二類神經網路
23:第三類神經網路
24:第四類神經網路
25:第五類神經網路
26:第六類神經網路
211、221、231:輸入層
212、222、232:隱藏層
213、223、233:損失函數層
214、224、234:神經元
S61~S69:步驟
OF1、OF2:目標預測值
圖1是本發明一實施例的多目標參數最佳化系統的示意圖。
圖2是本發明一實施例的訓練後類神經網路群組的運作過程示意圖。
圖3A是本發明一實施例的參數最佳化模組的運作過程示意圖。
圖3B是本發明一實施例的基因演算法的演算結果示意圖。
圖4是本發明一實施例的遷移學習模組的運作過程示意圖。
圖5A是本發明一實施例的第一類神經網路的訓練模型的示意圖。
圖5B是本發明一實施例的第二類神經網路的訓練模型的示意圖。
圖5C是本發明一實施例的第三類神經網路的訓練模型的示意圖。
圖6是本發明一實施例的多目標參數最佳化方法的步驟流程圖。
當結合附圖閱讀時,下列實施例用於清楚地展示本發明的上述及其他技術內容、特徵及/或效果。透過具體實施方式的闡述,人們將進一步瞭解本發明所採用的技術手段及效果,以達到上述的目的。此外,由於本發明所揭示的內容應易於理解且可為本領域技術人員所實施,因此,所有不脫離本發明的概念的相等置換或修改應包含在權利要求中。
應注意的是,在本文中,除了特別指明者之外,「一」元件不限於單一的該元件,還可指一或更多的該元件。
此外,說明書及權利要求中例如「第一」或「第二」等序數僅為描述所請求的元件,而不代表或不表示所請求的元件具有任何順序的序數,且不是所請求的元件及另一所請求的元件之間或製造方法的步驟之間的順序。這些序數的使用僅是為了將具有特定名稱的一個請求元件與具有相同名稱的另一請求元件區分開來。
此外,說明書及權利要求中例如「相鄰」一詞是用於描述相互鄰近,不必然表示相互接觸。
此外,本發明中關於“當...”或“...時”等描述表示”當下、之前或之後”等態樣,而不限定為同時發生之情形,在此先行敘明。本發明中關於“設置於...上”等類似描述係表示兩元件的對應位置關係,並不限定兩元件之間是否有所接觸,除非特別有限定,在此先行敘明。再者,本發明記載多個功效時,若在功效之間使用“或”一詞,係表示功效可獨立存在,但不排除多個功效可同時存在。
此外,說明書及權利要求中例如「連接」或「耦接」一詞不僅指與另一元件直接連接,也可指與另一元件間接連接或電性連接。另外,電性連接包含直接連接、間接連接或二元件間以無線電信號交流的態樣。
此外,說明書及權利要求中,「約」、「大約」、「實質上」、「大致上」之用語通常表示在一值與一給定值的差距在該給定值的10%內,或5%內,、或3%之內、,或2%之內、,或1%之內、,或0.5%之內的範圍。在此給定的數量為大約的數量,亦即在沒有特定說明「約」、「大約」、「實質上」、「大致上」的情況下,仍可隱含「約」、「大約」、「實質上」、「大致上」之含義。此外,用語「範圍為第一數值至第二數值」、「範圍介於第一數值至第二數值之間」表示所述範圍包含第一數值、第二數值以及它們之間的其它數值。
此外,在本文中,「系統」、「設備」、「裝置」、「模組」、或「單元」等用語,是指包含了一電子元件或由多個電子元件所組成的一數位電路、一類比電路、或其他更廣義電路,且除了特別指明者之外,它們不必然
有位階或層級關係。此外,各元件可以適合的方式來實現成單一電路或一積體電路,且可包括一或多個主動元件,例如,電晶體或邏輯閘,或一或多個被動元件,例如,電阻、電容、或電感,但不限於此。各元件可以適合的方式來彼此連接,例如,分別配合輸入信號及輸出信號,使用一或多條線路來形成串聯或並聯。此外,各元件可允許輸入信號及輸出信號依序或並列進出。上述組態皆是依照實際應用而定。
此外,只要合理,本發明所揭示的不同實施例的技術特徵可結合形成另一實施例。
另外,在本文中,「至少一元件」包含了一或多個元件之態樣,例如「一範圍中的至少一元件」之描述包含了該範圍中的單一元件之態樣、該範圍中多個元件之態樣以及該範圍中所有元件之態樣。在本文中,「及/或」包含了單一、任意多個及全部之態樣,例如「元件a、元件b及/或元件c」之描述包含了三者中任意一者之態樣、三者中任意二者之態樣以及三者之態樣。
圖1是本發明一實施例的多目標參數最佳化系統1(以下簡稱系統1)的示意圖。系統1可用於提供一線切割放電加工機10的多個最佳化加工參數。如圖1所示,系統1可包含一訓練後類神經網路群組2及一參數最佳化模組3。此外,系統1亦可包含一遷移學習模組4。
其中,訓練後類神經網路群組2可包含複數個訓練後類神經網路(亦可稱為代理模型)。每個訓練後類神經網路可根據一加工參數組合而各自輸出一目標預測值,亦即使用者可將一加工參數組合輸入至訓練後類神經網路,訓練後類神經網路可輸出該加工參數組合對應的目標預測值。參數最佳化模組3可執行基因演算法,以利用該等訓練後類神經網路的該等目標預測值找出最佳化
的加工參數組合。此外,遷移學習模組4可分別對該等訓練後類神經網路執行一遷移學習,使該等訓練後類神經網路轉換成複數個遷移學習後類神經網路。
在一實施例中,訓練後類神經網路群組2、參數最佳化模組3或遷移學習模組4可設置於相同或不同的電子裝置上,其中電子裝置可具備處理器。電子裝置的類型可包含桌上型電腦、筆記型電腦、平板電腦、工業電腦、伺服器、雲端伺服器、智慧型手機或其它具備處理器的電子產品,且不限於此。在一實施例中,訓練後類神經網路群組2、參數最佳化模組3或遷移學習模組4可透過一電腦程式產品來實現,舉例來說,電腦程式產品可具有複數個指令,該等指令可使電子裝置的處理器執行特殊運作,進而使處理器實現訓練後類神經網路群組2、參數最佳化模組3或遷移學習模組4的各種功能,但不限於此。此外,在一實施例中,電腦程式產品可儲存於非暫態電腦可讀取媒體之中,例如儲存於電子裝置的記憶體或儲存器之中,但不限於此。另外,電腦程式產品可分別存放於網路伺服器(例如網路伺服器的記憶體或其它儲存裝置)以供其他使用者下載,例如可將電腦程式產品製作成應用軟體(application,APP)的形式在網路上販售使用,且不限於此。
接著說明各元件。
圖2是本發明一實施例的訓練後類神經網路群組2的運作過程示意圖,並請同時參考圖1。
如圖2所示,在一實施例中,訓練後類神經網路群組2可包含一第一類神經網路21、一第二類神經網路22及一第三類神經網路23。第一類神經網路21、一第二類神經網路22及一第三類神經網路23可取得相同種類的加工參數組合,並各自輸出不同的目標預測值。
在一實施例中,加工參數組合中的加工參數可包含放電脈衝停止時間(off time,OFF)、電弧放電脈衝停止時間(arc off time,AFF)、短路放電脈衝停止時間(short off time,SFF)、放電脈衝持續時間(on time,ON)、電弧放電脈衝持續時間(arc on time,AN)或短路放電脈衝持續時間(short on time,SN),或者上述加工參數之任意組合,且不限於此。在另一些實施例中,加工參數的類型亦可包含基準電壓(standard voltage,SV)、輸出電壓(output voltage,OV)、進給倍率(feedrate override,FR)及/或水流大小(water flow,WL),且不限於此。
在一實施例中,第一類神經網路21可用於輸出一加工進給速度(machining speed or feed rate)預測值,例如將一組加工參數組合輸入至第一類神經網路21後,第一類神經網路21可對該組加工參數組合進行特徵分析,並預測該組加工參數組合對應的加工進給速度。此處「加工進給速度」指的是線切割放電加工機10在工件(亦即被切割物品)切割過程中各時間的進給速度。
在一實施例中,第二類神經網路22可用於輸出一表面粗糙度(surface roughness)預測值,例如將一組加工參數組合輸入至第二類神經網路22後,第二類神經網路22可對該組加工參數組合進行特徵分析,並預測該組加工參數組合對應的表面粗糙度。此處「表面粗糙度」指的是工件在切割後的表面粗糙度。
在一實施例中,第三類神經網路23可用於輸出一加工精度(machining accuracy)預測值,例如將一組加工參數組合輸入至第三類神經網路23後,第三類神經網路23可對該組加工參數組合進行特徵分析,並預測該組加工參數組合對應的加工精度。此處「加工精度」指的是工件在切割後的表面的實際尺寸、形狀及位置等三種幾何參數與預期的理想幾何參數的符合程度。
在一實施例中,第一類神經網路21、第二類神經網路22及第三類神經網路23是分別經由深度學習進行訓練,進而得到能夠根據加工參數組合產生預測目標值的能力。第一類神經網路21、第二類神經網路22及第三類神經網路23的訓練過程將於後續段落進行說明(例如圖5A至圖5C)。
在一實施例中,第一類神經網路21、第二類神經網路22及第三類神經網路23可使用Keras開源神經網路庫進行開發,使用版本為2.6.0,且不限於此。
接著說明參數最佳化模組3。圖3A是本發明一實施例的參數最佳化模組3的運作過程示意圖,並請同時參考圖1及圖2。
如圖3A所示,當第一類神經網路21、第二類神經網路22及第三類神經網路23訓練完成後,參數最佳化模組3可將加工參數組合(例如OFF、AFF、SFF、ON、AN及SN)的多種數值組合輸入至第一類神經網路21、第二類神經網路22及第三類神經網路23,並執行基因演算法,從第一類神經網路21、第二類神經網路22及第三類神經網路23分別輸出的多個目標預測值之中找出最佳目標預測值,以及從最佳目標預測值回推出該最佳目標預測值所對應的一或多個加工參數組合,並將對應最佳的目標預測值的加工參數組合設定為最佳化數值組合。
在一實施例中,加工參數組合中的每種加工參數可預先設定一較佳數值範圍,而參數最佳化模組3可根據每種加工參數的較佳數值範圍來產生加工參數組合的多種數值組合。在一實施例中,每種加工參數的較佳數值範圍可由使用者預先設定,且可隨時調整。在一實施例中,較佳數值範圍可例如是由本領域資深的技術人員預測提供,但不限於此。
在一實施例中,基因演算法可例如是第二代不可超越排序基因演算法(non-dominated sorting genetic algorithm II,NSGA-II),但不限於此。藉由NSGA-II,參數最佳化模組3可找出第一類神經網路21、第二類神經網路22及第三類神經網路23的至少其中二者所輸出的多個目標預測值之中的一或多個帕累托前緣(Pareto front),並將屬於帕累托前緣的目標預測值所對應的加工參數組合的數值組合設定為最佳化數值組合。在一實施例中,最佳化數值組合可例如是目標預測值為可產生較快加工進給速度的數值組合、目標預測值為可產生表面粗糙度較低的數值組合、目標預測值為可產生加工精度較精準的數值組合,或者上述之任意組合,且不限於此。
接著更詳細說明帕累托前緣的細節。圖3B是本發明一實施例的基因演算法的演算結果示意圖,並請同時參考圖3A。其中,圖3B的範例用於說明對應至少二個目標預測值的帕累托前緣的取得過程。
如圖3B所示,當執行NSGA-II後,參數最佳化模組3可類似於產生一座標圖,其中座標圖的橫軸為第一種目標預測值OF1,例如表面粗糙度預測值,座標圖的縱軸為第二種目標預測值OF2,例如加工進給速度預測值,而每組加工參數組合的數值組合可依照其對應的第一種目標預測值及第二種目標預測值在座標圖上被標示出來。之後,參數最佳化模組3可從該等數值組合中找出第一種目標預測值或第二種目標預測值的至少一者優於其它數值組合的一或多個數值組合,並將該等找出來的一或多個數值組合設定為第一組帕累托前緣組合F1。當第一組帕累托前緣組合F1被找出後,參數最佳化模組3再從剩餘的數值組合中找出第一種目標預測值或第二種目標預測值的至少一者優於其它數值組合的一或多個數值組合,並將該等找出來的一或多個數值組合設定為第二組帕累
托前緣組合F2。之後依此類推,直至找出預設數量的帕累托前緣。之後,參數最佳化模組3可將這些找出來的帕累托前緣設定為對應第一種目標預測值及第二種目標預測值的加工參數組合的最佳化數值組合。舉例來說,第一組帕累托前緣組合F1所對應的每種加工參數(例如OFF、AFF、SFF、ON、AN及SN)的數值(例如OFF的一數值、AFF的一數值、SFF的一數值、ON的一數值、AN的一數值及SN的一數值)即為其中一個最佳化數值組合,第二組帕累托前緣組合F2所對應的每種加工參數(例如OFF、AFF、SFF、ON、AN及SN)的數值(例如OFF的另一數值、AFF的另一數值、SFF的另一數值、ON的另一數值、AN的另一數值及SN的另一數值)即為其中另一個最佳化數值組合。本領域技術人員可依此類推當取得對應更多種目標預測值的帕累托前緣時的情形。
藉此,可找出最佳化的加工參數組合。
接著說明遷移學習模組4。圖4是本發明一實施例的遷移學習模組4的運作過程示意圖,並請同時參考圖1及圖2。
如圖4所示,遷移學習模組4可分別對訓練後的第一類神經網路21、第二類神經網路22及第三類神經網路23執行一遷移學習,使得第一類神經網路21、第二類神經網路22及第三類神經網路23可分別轉換成適用於其它規格的線切割放電加工機或適用於預測其它目標預測值的一第四類神經網路24、一第五類神經網路25及一第六類神經網路26。
在一實施例中,遷移學習模組4是以權重凍結的方式對第一類神經網路21、第二類神經網路22及第三類神經網路23進行遷移學習,但不限於此。遷移學習的細節將於後續段落說明。
前述段落已說明訓練後類神經網路群組2、參數最佳化模組3及遷移學習模組4的細節,接著將說明第一類神經網路21、第二類神經網路22及第三類神經網路23的訓練過程。
圖5A是本發明一實施例的第一類神經網路21的訓練模型210(亦即訓練前的第一類神經網路21)的示意圖,請同時參考圖1及圖2。如圖5A所示,第一類神經網路21的訓練模型210是深度類神經網路模型,其可包含一輸入層211、複數個隱藏層212及一損失函數層213,其中每個隱藏層212可包含複數個神經元214。
在一實施例中,輸入層211可用於供輸入6個靜態特徵,例如OFF、AFF、SFF、ON、AN、SN等,但不限於此。在一實施例中,訓練模型210可包含18個隱藏層212,且每個隱藏層可包含13個神經元214,但不限於此。在一實施例中,損失函數層213的損失函數可為均方誤差(mean-square error,MSE),但不限於此。在一實施例中,訓練模型210的活化函數可為整流線性單位函式(Rectified Linear Unit,ReLU),但不限於此。在一實施例中,訓練模組210可包含優化器(optimizer),其中優化器可使用Nadam優化器,但不限於此。在一實施例中,訓練模型210的學習率(learning rate)可設定為0.00032,但不限於此。在一實施例中,訓練模型210的批次大小可設定為8,但不限於此。在一實施例中,訓練模型210的訓練次數(Epoch)可設定為1000,且可使用早停法(early stopping)將忍耐次數(patience)設定為20,但不限於此。須注意的是,上述僅訓練模型210的各種設定參數是舉例,並非限定。
在一實施例中,當開始訓練時,加工參數組合的多組數值組合(例如加工參數OFF、AFF、SFF、ON、AN及SN的多個數值組合)以及每個數值組合
所對應的目標值資訊(例如加工參數OFF、AFF、SFF、ON、AN及SN的每種數值組合所對應的實際加工進給速度)可被輸入至訓練模型210之中,其中一部分的數值組合可做為訓練資料,一部分的數值組合可做為測試資料。在一實施例中,數值組合的數量大於或等於50,且佈線於此。在一實施例中,數值組合的數量大於或等於75,且不限於此。在一實施例中,數值組合的數量可藉於80至100之間(80≦數量≦100),且不限於此。在一實施例中,加工參數組合中的OFF的數值可藉於5微秒(μs)至15微秒之間(亦即5μs≦OFF≦15μs),且不限於此。在一實施例中,加工參數組合中的AFF的數值可藉於5μs至15μs之間(亦即5μs≦AFF≦15μs),且不限於此。在一實施例中,加工參數組合中的SFF的數值可藉於5μs至15μs之間(亦即5μs≦SFF≦15μs),且不限於此。在一實施例中,加工參數組合中的ON的數值可藉於0.5μs至1μs之間(亦即0.5μs≦ON≦1μs),且不限於此。在一實施例中,加工參數組合中的AN的數值可藉於0.5μs至1μs之間(亦即0.5μs≦AN≦1μs),且不限於此。在一實施例中,加工參數組合中的SN的數值可藉於0.1μs至0.5μs之間(亦即0.1μs≦SN≦0.5μs),且不限於此。
當訓練模型210取得訓練資料及各訓練資料所對應的目標值資訊後,即可藉由隱藏層212及損失函數層213建構出特徵分析路徑(亦即可完成每個隱藏層212的神經元214的權重之設定),進而完成訓練。完成訓練後的訓練模型210即可形成訓練後的第一類神經網路21。在一實施例中,訓練後的第一類神經網路21的MSE約為0.0115(mm/min)2,而預測結果與實際量測結果的平均絕對百分比誤差(mean absolute percentage error,MAPE)可約為1.87%,具備良好的準確度。
藉此,第一類神經網路21的訓練過程已可被理解。
圖5B是本發明一實施例的第二類神經網路22的訓練模型220(亦即訓練前的第二類神經網路22)的示意圖,請同時參考圖1及圖2。如圖5B所示,第二類神經網路22的訓練模型220是深度類神經網路模型,其可包含一輸入層221、複數個隱藏層222及一損失函數層223,其中每個隱藏層222可包含複數個神經元224。
在一實施例中,輸入層221可用於供輸入6個靜態特徵,例如OFF、AFF、SFF、ON、AN、SN等,但不限於此。在一實施例中,訓練模型220可包含20個隱藏層222,且每個隱藏層222可包含20個神經元224,但不限於此。在一實施例中,損失函數層223的損失函數可為MSE,但不限於此。在一實施例中,訓練模型220的活化函數可為ReLU,但不限於此。在一實施例中,訓練模組220的優化器可為Nadam優化器,但不限於此。在一實施例中,訓練模型220的學習率可設定為0.003,但不限於此。在一實施例中,訓練模型220的批次大小可設定為5,但不限於此。在一實施例中,訓練模型220的Epoch可設定為1000,且可使用early stopping將patience設定為20,但不限於此。須注意的是,上述僅訓練模型220的各種設定參數是舉例,並非限定。
第二類神經網路22的訓練模型220可採用與第一類神經網路21的訓練模型210相同的加工參數組合的數值組合,故不再詳述此部分。
當訓練模型220取得訓練資料及各訓練資料所對應的目標值資訊後,即可藉由隱藏層222及損失函數層223建構出特徵分析路徑(亦即可完成每個隱藏層222的神經元224的權重之設定),進而完成訓練。完成訓練後的訓練模型220即可形成訓練後的第二類神經網路22。在一實施例中,訓練後的第二類神經
網路22的MSE約為0.0063(mm/min)2,而預測結果與實際量測結果的MAPE可約為1.72%,具備良好的準確度。
藉此,第二類神經網路22的訓練過程已可被理解。
圖5C是本發明一實施例的第三類神經網路23的訓練模型230(亦即訓練前的第三類神經網路23)的示意圖,請同時參考圖1及圖2。如圖5C所示,第三類神經網路23的訓練模型230是深度類神經網路模型,其可包含一輸入層231、複數個隱藏層232及一損失函數層233,其中每個隱藏層232可包含複數個神經元234。
在一實施例中,輸入層231可用於供輸入6個靜態特徵,例如OFF、AFF、SFF、ON、AN、SN等,但不限於此。在一實施例中,訓練模型230可包含26個隱藏層232,且每個隱藏層232可包含13個神經元,但不限於此。在一實施例中,損失函數層233的損失函數可為MSE,但不限於此。在一實施例中,訓練模型230的活化函數可為ReLU,但不限於此。在一實施例中,訓練模組230的優化器可為Nadam優化器,但不限於此。在一實施例中,訓練模型230的學習率可設定為0.00035,但不限於此。在一實施例中,訓練模型230的批次大小可設定為4,但不限於此。在一實施例中,訓練模型230的Epoch可設定為1000,且可使用early stopping將patience設定為20,但不限於此。須注意的是,上述僅訓練模型230的各種設定參數是舉例,並非限定。
第三類神經網路23的訓練模型230可採用與第一類神經網路21的訓練模型210相同的加工參數組合的數值組合,故不再詳述此部分。
當訓練模型230取得訓練資料及各訓練資料所對應的目標值資訊後,即可藉由隱藏層232及損失函數層233進行建構出特徵分析路徑(亦即可完成
每個隱藏層232的神經元234的權重之設定),進而完成訓練。完成訓練後的訓練模型230即可形成訓練後的第三類神經網路23。在一實施例中,訓練後的第三類神經網路23的預測結果與實際量測結果的平均絕對誤差(mean absolute error,MAE)可約為1.95%,具備良好的準確度。
藉此,第三類神經網路23的訓練過程已可被理解。
當第一類神經網路21、第二類神經網路22及第三類神經網路23的訓練完成後,即可分別根據輸入的加工參數組合來輸出加工進給速度預測值、表面粗糙度預測值及加工精度預測值,而參數最佳化模組3亦可使用第一類神經網路21、第二類神經網路22及第三類神經網路23及執行基因演算法來找出最佳化的加工參數組合。
在一實施例中,參數最佳化模組3使用基因演算法所找出的加工參數組合所對應的加工進給速度預測值與實測結果的平均MAPE約為3.44,表面粗糙度預測值與實測結果的平均MAPE約為4.46,加工精度預測值與實測結果的平均MAE為1.99,皆可具備良好的準確度。
此外,當第一類神經網路21、第二類神經網路22及第三類神經網路23的訓練完成後,遷移學習模組4亦可分別對第一類神經網路21、第二類神經網路22及第三類神經網路23使用權重凍結,藉此進行遷移學習。接著將說明遷移學習的過程,請同時參考圖4至圖5C。
在一實施例中,遷移學習模組4是將第一類神經網路21的最後一層隱藏層212的神經元214以外的神經元214進行權重凍結(例如將前17個隱藏層212的神經元214的權重凍結),並利用訓練用資料重新訓練,以僅調整最後一層隱藏層212的神經元214的權重。在一實施例中,當使用約40組訓練用資料進行
訓練時,第一類神經網路21進行遷移學習後所形成的第四類神經網路24的目標預測值與實測結果的MAPE可約為1.97%,具備良好的準確度。
在一實施例中,遷移學習模組4是將第二類神經網路22的最後一層隱藏層222的神經元224以外的神經元224進行權重凍結(例如將前19個隱藏層222的神經元224的權重凍結),並利用訓練用資料重新訓練,以僅調整最後一層隱藏層222的神經元224的權重。在一實施例中,當使用約40組訓練用資料進行訓練時,第二類神經網路22進行遷移學習後所形成的第五類神經網路25的目標預測值與實測結果的MAPE可約為2.58%,具備良好的準確度。
在一實施例中,遷移學習模組4是將第三類神經網路23的最後一層隱藏層232的神經元234以外的神經元234進行權重凍結(例如將前25個隱藏層232的神經元234的權重凍結),並利用訓練用資料重新訓練,以僅調整最後一層隱藏層232的神經元234的權重。在一實施例中,當使用約40組訓練用資料進行訓練時,第三類神經網路23進行遷移學習後所形成的第六類神經網路26的目標預測值與實測結果的MAE可約為2.17%,具備良好的準確度。
藉此,可使用小量的訓練資料,將訓練後類神經網路群組2在不同機台的之間移轉,以擴增系統1的適用範圍。
接著統整本發明的系統1的運作過程。圖6是本發明一實施例的多目標參數最佳化方法的步驟流程圖,其中多目標參數最佳化方法是透過系統1來執行。
首先步驟S61被執行,第一類神經網路21的訓練用模型210、第二類神經網路22的訓練用模型220及第三類神經網路23的訓練用模型230的架構被設定完成,亦即形成如圖5A~5C的架構。之後步驟S62被執行,訓練用模型
210~230分別取得訓練用資料。之後步驟S63被執行,訓練用模型210~230利用訓練用資料進行訓練,以各自形成訓練完成的類神經網路。藉此,第一類神經網路21的訓練用模型210、第二類神經網路22及第三類神經網路23的訓練可完成。
當步驟S63完成後,步驟S64可被執行,參數最佳化模組3將加工參數組合的多個較佳數值組合分別輸入至訓練後的第一類神經網路21、第二類神經網路22及第三類神經網路23。之後步驟S65被執行,參數最佳化模組3執行NSGA-II,從第一類神經網路21、第二類神經網路22及第三類神經網路23的目標預測值中找出一或多個帕累托前緣。之後步驟S66被執行,參數最佳化模組3將該等帕累托前緣所對應的數值組合設定為加工參數組合的最佳化數值組合。藉此,本發明的系統1可自動找出多目標的最佳化參數組合。
此外,當步驟S63完成時,步驟S67亦可被執行,遷移學習模組4分別對第一類神經網路21、第二類神經網路22及第三類神經網路23進行權重凍結。之後步驟S68被執行,遷移學習模組4重新訓練權重凍結的第一類神經網路21、第二類神經網路22及第三類神經網路23。之後步驟S69被執行,第一類神經網路21形成適用於不同機台或具備不同預測能力的第四類神經網路24,第二類神經網路22形成適用於不同機台或具備不同預測能力的第五類神經網路25,且第三類神經網路23形成適用於不同機台或具備不同預測能力的第六類神經網路26。藉此,遷移學習可被完成。
據此,本發明的多目標參數最佳化系統1所建立的訓練後類神經網路群組2可準確地預測線切割放電加工機10的多個目標預測值。此外,多目標參數最佳化系統1的參數最佳化模組3可執行基因演算法,以使用訓練後類神經網路群組2來取得最佳化的加工參數組合,藉此可節省大量的時間成本及人力成
本。另外,本發明的多目標參數最佳化系統1的訓練後類神經網路群組2可藉由遷移學習而適用其它機台,可提升適用性,並減少重新開發的經費及成本。
儘管本發明已透過上述實施例來說明,可理解的是,根據本發明的精神及本發明所主張的申請專利範圍,許多修飾及變化都是可能的。
1:多目標參數最佳化系統
2:訓練後類神經網路群組
21:第一類神經網路
22:第二類神經網路
23:第三類神經網路
3:參數最佳化模組
Claims (9)
- 一種多目標參數最佳化系統,用於提供一線切割放電加工機的多目標最佳化加工參數,包含:複數個訓練後類神經網路,其中每個訓練後類神經網路根據一加工參數組合而各自輸出一目標預測值;以及一參數最佳化模組,執行一基因演算法,以利用該等訓練後類神經網路根據該加工參數組合的多種數值組合所輸出的該等目標預測值來找出該加工參數組合的至少一最佳化數值組合;其中該基因演算法是找出該等訓練後類神經網路群組根據該等數值組合所輸出的該等目標預測值中的至少一帕累托前緣(Pareto front),並將該至少一帕累托前緣所對應的該組數值組合設定為該加工參數組合的該至少一最佳化數值組合。
- 如請求項1所述的多目標參數最佳化系統,其中該等加工參數包含放電脈衝停止時間、電弧放電脈衝停止時間、短路放電脈衝停止時間、放電脈衝持續時間、電弧放電脈衝持續時間或短路放電脈衝持續時間,或者上述之任意組合。
- 如請求項1所述的多目標參數最佳化系統,其中該等訓練後類神經網路群組包含一第一訓練後類神經網路、一第二訓練後類神經網路及/或一第三訓練後類神經網路,其中該第一訓練後類神經網路的該目標預測值為加工進給速度預測值,該第二訓練後類神經網路的該目標預測值為該表面粗糙度預測值,且該第三訓練後類神經網路的該目標預測值為該工件精度預測值。
- 如請求項1所述的多目標參數最佳化系統,其中更包含一遷移學習模組,對每個訓練後類神經網路以權重凍結的方式進行一遷移學習。
- 一種多目標參數最佳化方法,由一多目標參數最佳化系統執行,用於提供一線切割放電加工機的多目標最佳化加工參數,其中該多目標參數最佳化系統包含複數個訓練後類神經網路及一參數最佳化模組,且每個訓練後類神經網路根據一加工參數組合而各自輸出一目標預測值,其中該方法包含步驟:藉由該參數最佳化模組,執行一基因演算法,以利用該等訓練後類神經網路根據該加工參數組合的多種數值組合所輸出的該等目標預測值來找出該加工參數組合的至少一最佳化數值組合;其中該基因演算法是找出該等訓練後類神經網路群組根據該等數值組合所輸出的該等目標預測值中的至少一帕累托前緣,並將該至少一帕累托前緣所對應的該組數值組合設定為該加工參數組合的該至少一最佳化數值組合。
- 如請求項5所述的多目標參數最佳化方法,其中該等加工參數包含放電脈衝停止時間、電弧放電脈衝停止時間、短路放電脈衝停止時間、放電脈衝持續時間、電弧放電脈衝持續時間或短路放電脈衝持續時間,或者上述之任意組合。
- 如請求項5所述的多目標參數最佳化方法,其中該等訓練後類神經網路群組包含一第一訓練後類神經網路、一第二訓練後類神經網路或一第三訓練後類神經網路,或者上述之任意組合,其中該第一訓練後類神經網路的該目標預測值為加工進給速度預測值,該第二訓練後類神經網路的該目標預測值為該表面粗糙度預測值,且該第三訓練後類神經網路的該目標預測值為該工件精度預測值。
- 如請求項5所述的多目標參數最佳化方法,更包含步驟:藉由該多目標參數最佳化系統的一遷移學習模組,對每個訓練後類神經網路以權重凍結的方式進行一遷移學習。
- 一種電腦程式產品,儲存於一非暫態電腦可讀取媒體之中,用以使一多目標參數最佳化系統運作,以提供一線切割放電加工機的多目標最佳化加工參數,其中該多目標參數最佳化系統包含複數個訓練後類神經網路及一參數最佳化模組,且每個訓練後類神經網路根據一加工參數組合而各自輸出一目標預測值,其中該電腦程式產品包含:一指令,使該參數最佳化模組執行一基因演算法,以利用該等訓練後類神經網路根據該加工參數組合的多種數值組合所輸出的該等目標預測值來找出該加工參數組合的至少一最佳化數值組合;其中該基因演算法是找出該等訓練後類神經網路群組根據該等數值組合所輸出的該等目標預測值中的至少一帕累托前緣(Pareto front),並將該至少一帕累托前緣所對應的該組數值組合設定為該加工參數組合的該至少一最佳化數值組合。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| TW111115048A TWI819578B (zh) | 2022-04-20 | 2022-04-20 | 多目標參數最佳化系統、方法及電腦程式產品 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| TW111115048A TWI819578B (zh) | 2022-04-20 | 2022-04-20 | 多目標參數最佳化系統、方法及電腦程式產品 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| TWI819578B true TWI819578B (zh) | 2023-10-21 |
| TW202343172A TW202343172A (zh) | 2023-11-01 |
Family
ID=89720574
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| TW111115048A TWI819578B (zh) | 2022-04-20 | 2022-04-20 | 多目標參數最佳化系統、方法及電腦程式產品 |
Country Status (1)
| Country | Link |
|---|---|
| TW (1) | TWI819578B (zh) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TW200617800A (en) * | 2006-02-15 | 2006-06-01 | Univ Ling Tung | The hierarchy-genetic-algorithm trained artificial neural network thermal error compensation system of CNC machine tools |
| TW201202876A (en) * | 2010-01-29 | 2012-01-16 | Tokyo Electron Ltd | Method and system for self-learning and self-improving a semiconductor manufacturing tool |
| TW201605602A (zh) * | 2014-08-12 | 2016-02-16 | Nat Univ Chin Yi Technology | 以類神經網路結合基因演算法建構逆向模型處理系統 |
| WO2018062398A1 (ja) * | 2016-09-30 | 2018-04-05 | 株式会社Uacj | アルミニウム製品の特性予測装置、アルミニウム製品の特性予測方法、制御プログラム、および記録媒体 |
| TW201941328A (zh) * | 2018-03-20 | 2019-10-16 | 日商東京威力科創股份有限公司 | 結合整合式半導體處理模組的自我察知及修正異質平台及其使用方法 |
| TW202009804A (zh) * | 2018-08-29 | 2020-03-01 | 國立交通大學 | 以機械學習為基礎之最佳化預測模型的建立與預測結果的取得系統及方法 |
| TW202101138A (zh) * | 2019-03-29 | 2021-01-01 | 美商蘭姆研究公司 | 基板處理系統用基於模型之排程 |
| TW202105098A (zh) * | 2019-02-15 | 2021-02-01 | 德商巴斯夫歐洲公司 | 決定化學製造場的操作條件 |
| TW202203093A (zh) * | 2020-07-02 | 2022-01-16 | 阿證科技股份有限公司 | 類神經網路人工智慧決策核心系統 |
| TW202212020A (zh) * | 2020-09-18 | 2022-04-01 | 中國鋼鐵股份有限公司 | 品質設計方法與電子裝置 |
-
2022
- 2022-04-20 TW TW111115048A patent/TWI819578B/zh active
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TW200617800A (en) * | 2006-02-15 | 2006-06-01 | Univ Ling Tung | The hierarchy-genetic-algorithm trained artificial neural network thermal error compensation system of CNC machine tools |
| TW201202876A (en) * | 2010-01-29 | 2012-01-16 | Tokyo Electron Ltd | Method and system for self-learning and self-improving a semiconductor manufacturing tool |
| TW201605602A (zh) * | 2014-08-12 | 2016-02-16 | Nat Univ Chin Yi Technology | 以類神經網路結合基因演算法建構逆向模型處理系統 |
| WO2018062398A1 (ja) * | 2016-09-30 | 2018-04-05 | 株式会社Uacj | アルミニウム製品の特性予測装置、アルミニウム製品の特性予測方法、制御プログラム、および記録媒体 |
| TW201941328A (zh) * | 2018-03-20 | 2019-10-16 | 日商東京威力科創股份有限公司 | 結合整合式半導體處理模組的自我察知及修正異質平台及其使用方法 |
| TW202009804A (zh) * | 2018-08-29 | 2020-03-01 | 國立交通大學 | 以機械學習為基礎之最佳化預測模型的建立與預測結果的取得系統及方法 |
| TW202105098A (zh) * | 2019-02-15 | 2021-02-01 | 德商巴斯夫歐洲公司 | 決定化學製造場的操作條件 |
| TW202101138A (zh) * | 2019-03-29 | 2021-01-01 | 美商蘭姆研究公司 | 基板處理系統用基於模型之排程 |
| TW202203093A (zh) * | 2020-07-02 | 2022-01-16 | 阿證科技股份有限公司 | 類神經網路人工智慧決策核心系統 |
| TW202212020A (zh) * | 2020-09-18 | 2022-04-01 | 中國鋼鐵股份有限公司 | 品質設計方法與電子裝置 |
Also Published As
| Publication number | Publication date |
|---|---|
| TW202343172A (zh) | 2023-11-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111587440B (zh) | 用于更新精确突触权重值的神经形态芯片 | |
| Hung et al. | A novel virtual metrology scheme for predicting CVD thickness in semiconductor manufacturing | |
| CN108959728B (zh) | 基于深度学习的射频器件参数优化方法 | |
| Anjum et al. | Response surface methodology: A neural network approach | |
| Ou et al. | Simulation study on reward function of reinforcement learning in gantry work cell scheduling | |
| WO2020117991A1 (en) | Generating integrated circuit floorplans using neural networks | |
| TWI736404B (zh) | 用於在邊緣設備上執行機器學習操作的可程式設計電路 | |
| Peng et al. | A new Jacobian matrix for optimal learning of single-layer neural networks | |
| JP6092477B2 (ja) | ニューラルダイナミクスを修正するための自動化された方法 | |
| US20120303562A1 (en) | Artificial neural network application for magnetic core width prediction and modeling for magnetic disk drive manufacture | |
| CN110187647A (zh) | 模型训练方法及系统 | |
| CN107369108A (zh) | 多层人造神经网络及其控制方法 | |
| Danilin et al. | Determining the fault tolerance of memristorsbased neural network using simulation and design of experiments | |
| KR20220051903A (ko) | 회로 모델을 생성하는 방법 및 이를 이용한 집적 회로의 제조 방법 | |
| Ansari et al. | OCTAN: An on-chip training algorithm for memristive neuromorphic circuits | |
| CN118378094A (zh) | 芯片布局模型训练及运用方法、装置、电子设备及存储介质 | |
| EP4310720A1 (en) | Modeling method of neural network for simulation in semiconductor design process, and simulation method in semiconductor design process using the same | |
| TWI819578B (zh) | 多目標參數最佳化系統、方法及電腦程式產品 | |
| TW202405590A (zh) | 多目標參數最佳化系統、方法及電腦程式產品 | |
| CN117434875B (zh) | 用于阀门工控平台的电路运行监测方法及系统 | |
| Su et al. | Incremental learning with balanced update on receptive fields for multi-sensor data fusion | |
| US12374394B2 (en) | Degradation-aware training scheme for reliable memristor deep learning accelerator design | |
| Shen et al. | A fast learning algorithm of neural network with tunable activation function | |
| CN116168249A (zh) | 搜索方法及装置、芯片、计算机可读存储介质 | |
| CN118333416A (zh) | 一种光伏电站短期发电量预测方法、系统、设备及介质 |