[go: up one dir, main page]

TWI899965B - 量子神經網路的訓練方法和資料分類方法 - Google Patents

量子神經網路的訓練方法和資料分類方法

Info

Publication number
TWI899965B
TWI899965B TW113114792A TW113114792A TWI899965B TW I899965 B TWI899965 B TW I899965B TW 113114792 A TW113114792 A TW 113114792A TW 113114792 A TW113114792 A TW 113114792A TW I899965 B TWI899965 B TW I899965B
Authority
TW
Taiwan
Prior art keywords
quantum
qubit
electronic device
state
sample
Prior art date
Application number
TW113114792A
Other languages
English (en)
Other versions
TW202447479A (zh
Inventor
艾博軒
湯韜
楊燕明
高鵬飛
鄭建賓
Original Assignee
大陸商中國銀聯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商中國銀聯股份有限公司 filed Critical 大陸商中國銀聯股份有限公司
Publication of TW202447479A publication Critical patent/TW202447479A/zh
Application granted granted Critical
Publication of TWI899965B publication Critical patent/TWI899965B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computational Mathematics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)

Abstract

本發明公開了一種量子神經網路的訓練方法和資料分類方法。該量子神經網路的訓練方法包括獲取樣本資料及其對應的樣本類別標籤;利用量子神經網路中的特徵提取層對樣本資料進行特徵提取;將提取到的樣本特徵輸入至酉矩陣層,得到與樣本特徵對應的酉矩陣;基於酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,該第一量子比特的量子態與樣本類別標籤對應;利用量子電路確定第二量子比特與第一量子比特的量子態保真度,進而確定損失值;根據損失值調整量子神經網路中的網路參數,直至量子神經網路收斂,得到訓練後的量子神經網路。本發明實施例可以降低量子神經網路的訓練難度和複雜度、量子神經網路的計算成本,以及出現貧瘠高原現象的概率。

Description

量子神經網路的訓練方法和資料分類方法
本發明屬於量子計算技術領域,尤其涉及一種量子神經網路的訓練方法和資料分類方法。
傳統神經網路也簡稱為神經網路,它是由眾多的神經元可調的連接權值連接而成的,具有大規模並行處理、分散式資訊存儲、良好的自組織自學習能力的人工智慧系統。
隨著量子計算科學的發展,神經網路與之結合發展出新型的量子神經網路。經典量子神經網路依賴於資料的量子態製備、量子態資料的儲存等技術,然而量子態製備過程常需要消耗額外的時間和空間複雜度,量子態資料儲存也是一個巨大的技術難點,從而導致量子神經網路訓練難度和複雜度較高。同時,經典量子神經網路中往往需要使用很多量子比特來表示不同的資料,而過多的量子比特不僅會導致高昂的計算成本,而且會導致訓練時出現貧瘠高原現象。
本發明實施例提供一種量子神經網路的訓練方法和資料分類方法,能夠降低量子神經網路的訓練難度和複雜度,降低量子神經網路的計算成本,降低出現貧瘠高原現象的概率。
第一方面,本發明實施例提供一種量子神經網路的訓練方法,該方法包括:
獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵;
將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣;
基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,所述第一量子比特的量子態與所述樣本類別標籤對應;
利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,根據所述量子態保真度確定損失值;
根據所述損失值調整所述量子神經網路中的網路參數,返回執行所述獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至所述量子神經網路收斂,得到訓練後的所述量子神經網路。
第二方面,本發明實施例提供一種資料分類方法,該方法包括:
獲取待分類的目標資料,輸入到量子神經網路中,其中,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵;
將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣;
基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;
利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度;
根據所述量子態保真度確定所述目標資料所屬的類別。
第三方面,本發明實施例提供了一種量子神經網路的訓練裝置,該裝置包括:
樣本獲取模組,用於獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
第一提取模組,用於利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵;
第一確定模組,用於將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣;
第一調整模組,用於基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,所述第一量子比特的量子態與所述樣本類別標籤對應;
損失確定模組,用於利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,根據所述量子態保真度確定損失值;
參數調整模組,用於根據所述損失值調整所述量子神經網路中的網路參數,返回執行所述獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至所述量子神經網路收斂,得到訓練後的所述量子神經網路。
第四方面,本發明實施例提供了一種資料分類裝置,該裝置包括:
資料獲取模組,用於獲取待分類的目標資料,輸入到量子神經網路中,其中,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
第二提取模組,用於利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵;
第二確定模組,用於將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣;
第二調整模組,用於基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;
保真度確定模組,用於利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度;
類別確定模組,用於根據所述量子態保真度確定所述目標資料所屬的類別。
第五方面,本發明實施例提供了一種電子設備,該電子設備包括:處理器以及存儲有電腦程式指令的記憶體;
處理器執行所述電腦程式指令時實現如第一方面的任一項實施例中所述的量子神經網路的訓練方法的步驟,或者如第二方面的任一項實施例中所述的資料分類方法的步驟。
第六方面,本發明實施例提供了一種電腦可讀存儲介質,電腦可讀存儲介質上存儲有電腦程式指令,電腦程式指令被處理器執行時實現如第一方面的任一項實施例中所述的量子神經網路的訓練方法的步驟,或者如第二方面的任一項實施例中所述的資料分類方法的步驟。
第七方面,本發明實施例提供了一種電腦程式產品,電腦程式產品中的指令由電子設備的處理器執行時,使得所述電子設備執行如第一方面的任一項實施例中所述的量子神經網路的訓練方法的步驟,或者如第二方面的任一項實施例中所述的資料分類方法的步驟。
本發明實施例中的量子神經網路的訓練方法和資料分類方法,通過改進量子神經網路的結構,在量子神經網路中設置特徵提取層、酉矩陣層和量子電路,進而在訓練過程中將特徵提取層提取到的與樣本資料對應的樣本特徵直接輸入至酉矩陣層,製備與樣本特徵對應的酉矩陣,從而代替傳統方法中的製備量子態資料,將第一量子比特作為啟動函數的替代,使得第一量子比特的量子態被酉矩陣翻轉調整,得到第二量子比特後,再利用量子電路對第二量子比特和第一量子比特進行相似性比對,從而計算損失函數。如此,本發明實施例無需進行量子態製備,也無需進行量子態資料的存儲,更不需要使用過多的量子比特,即可訓練得到量子神經網路,從而可以降低量子神經網路的訓練難度和複雜度,降低量子神經網路的計算成本,降低出現貧瘠高原現象的概率。
h 1,h 2,h K :隱藏單元
D train :訓練集
t 1:時刻
21:N個維度的特徵資料
22:隱藏層
23:酉矩陣群
24:量子電路
241:第一哈達瑪門
242:第二哈達瑪門
243:交換門
500:量子神經網路的訓練裝置
501:樣本獲取模組
502:第一提取模組
503:第一確定模組
504:第一調整模組
505:損失確定模組
506:參數調整模組
600:資料分類裝置
601:資料獲取模組
602:第二提取模組
603:第二確定模組
604:第二調整模組
605:保真度確定模組
606:類別確定模組
700:電子設備
701:處理器
702:記憶體
703:通信介面
710:匯流排
A,B:標籤
a,b:類別
S110,S120,S130,S140,S150,S160,S410,S420,S430,S440,S450,S460:步驟
為了更清楚地說明本發明實施例的技術方案,下面將對本發明實施例中所需要使用的圖式作簡單的介紹,對於本領域普通技術人員來 講,在不付出進步性勞動的前提下,還可以根據這些圖式獲得其他的圖式。
圖1是本發明一個實施例提供的量子神經網路的訓練方法的流程示意圖;
圖2是本發明提供的量子神經網路的一種網路結構圖;
圖3是本發明提供的量子電路的一種等效圖;
圖4是本發明一個實施例提供的資料分類方法的流程示意圖;
圖5是本發明一個實施例提供的量子神經網路的訓練裝置的結構示意圖;
圖6是本發明一個實施例提供的資料分類裝置的結構示意圖;
圖7是本發明一個實施例提供的電子設備的結構示意圖。
下面將詳細描述本發明的各個方面的特徵和示例性實施例,為了使本發明的目的、技術方案及優點更加清楚明白,以下結合圖式及具體實施例,對本發明進行進一步詳細描述。應理解,此處所描述的具體實施例僅意在解釋本發明,而不是限定本發明。對於本領域技術人員來說,本發明可以在不需要這些具體細節中的一些細節的情況下實施。下面對實施例的描述僅僅是為了通過示出本發明的示例來提供對本發明更好的理解。
需要說明的是,在本文中,諸如第一和第二等之類的關係術語僅僅用來將一個實體或者操作與另一個實體或操作區分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關係或者順序。而且,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設備所固有的要素。在沒有更多限制的情況下,由語句“包括......”限定的要素,並不排除在包括所述要素的過程、方法、物品或者設備中還存在另外的相同要素。
為了解決現有技術問題,本發明實施例提供了一種量子神經 網路的訓練方法和資料分類方法。該量子神經網路的訓練方法可以應用於訓練量子神經網路的場景,下面首先對本發明實施例所提供的量子神經網路的訓練方法進行介紹。
圖1是本發明一個實施例提供的量子神經網路的訓練方法的流程示意圖。如圖1所示,該量子神經網路的訓練方法具體可以包括如下步驟:
步驟S110、獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
步驟S120、利用特徵提取層對樣本資料進行特徵提取,得到樣本特徵;
步驟S130、將樣本特徵輸入至酉矩陣層,得到與樣本特徵對應的酉矩陣;
步驟S140、基於酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,第一量子比特的量子態與樣本類別標籤對應;
步驟S150、利用量子電路確定第二量子比特與第一量子比特之間的量子態保真度,根據量子態保真度確定損失值;
步驟S160、根據損失值調整量子神經網路中的網路參數,返回執行獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至量子神經網路收斂,得到訓練後的量子神經網路。
由此,通過改進量子神經網路的結構,在量子神經網路中設置特徵提取層、酉矩陣層和量子電路,進而在訓練過程中將特徵提取層提取到的與樣本資料對應的樣本特徵直接輸入至酉矩陣層,製備與樣本特徵對應的酉矩陣,從而代替傳統方法中的製備量子態資料,將第一量子比特作為啟動函數的替代,使得第一量子比特的量子態被酉矩陣翻轉調整,得到第二量子比特後,再利用量子電路對第二量子比特和第一量子比特進行相似性比對,從而計算損失函數。如此,本發明實施例無需進行量子態製備,也無需進行量子態資料的存儲,更不需要使用過多的量子比特,即可訓練得到量子神經網路,從而可以降低量子神經網路的訓練難度和複雜度, 降低量子神經網路的計算成本,降低出現貧瘠高原現象的概率。
下面介紹上述各個步驟的具體實現方式。
在一些實施方式中,在步驟S110中,可設置包含M個樣本資料的訓練集D train ,其中,M為大於1的整數。基於此,訓練集D train 中 的特徵項可表示為,其中,第m個樣本資料對應的特徵 項為,1 m M。一個樣本數據可設置有一個樣本類別標籤,如此, 與訓練集D train 對應的標籤項可以為
另外,樣本資料可根據量子神經網路的使用場景來選取,例如,在量子神經網路用於預測商戶借貸風險的情況下,樣本資料可以選取有風險商戶的相關資料,以及無風險商戶的相關資料,樣本類別標籤可以包括有風險和無風險兩種。
示例性地,在設置得到訓練集D train 後,每次訓練可從訓練集D train 中獲取一個樣本資料及其對應的樣本類別標籤y m
在一些實施方式中,在步驟S120中,不同於傳統的量子神經網路的結構,本發明實施例中所提供的量子神經網路中可包括特徵提取層、酉矩陣層和量子電路。其中,特徵提取層可以是傳統神經網路中的結構,用於處理傳統資料,該特徵提取層中可包括一層輸入層和一層隱藏層。具體地,輸入層可用於接收待輸入至量子神經網路中的資料,隱藏層可用於將輸入的資料映射至另一個維度空間,以提取該資料的特徵。
示例性地,可將樣本資料通過輸入層輸入至該量子神經網路,並利用隱藏層對輸入的樣本資料進行特徵提取,從而輸出得到與該樣本資料對應的樣本特徵。
基於此,在樣本資料中包括與N個維度對應的N個特徵資料的情況下,為了進一步提高特徵提取的準確性,在一些實施方式中,可在特徵提取層中設置K個隱藏單元,其中,N和K為大於1的整數。
示例性地,每個樣本資料可包含N個維度的特徵資料,也即 訓練集D train 中的第m個樣本資料可表示為,其中, 第m個樣本資料中第n個維度的特徵資料為x mn ,1 n N。另外,隱藏單元的數量K可由用戶根據量子神經網路的實際使用場景進行設置。
基於此,在一些實施方式中,上述步驟S120具體可以包括:
將N個特徵資料登錄至K個隱藏單元中的每個隱藏單元,利用每個隱藏單元對N個特徵資料進行特徵提取,得到K個樣本子特徵,其中,樣本特徵包括K個樣本子特徵。
示例性地,本發明實施例提供的量子神經網路的結構可如圖2所示,對於樣本資料中N個維度的特徵資料21,可將該N個維度的特徵資料21輸入至隱藏層22中的每個隱藏單元。
例如,將N個維度的特徵資料21輸入至隱藏層22中的隱藏單元h 1,利用隱藏單元h 1對該N個特徵資料進行特徵提取,得到隱藏單元h 1輸出的一個樣本子特徵;將N個維度的特徵資料21輸入至隱藏層22中的隱藏單元h 2,利用隱藏單元h 2對該N個特徵資料進行特徵提取,得到隱藏單元h 2輸出的一個樣本子特徵;......;將N個維度的特徵資料21輸入至隱藏層22中的隱藏單元h K ,利用隱藏單元h K 對該N個特徵資料進行特徵提取,得到隱藏單元h K 輸出的一個樣本子特徵。如此,可得到K個樣本子特徵。
這裡,假設輸入的是第m個樣本資料,則隱藏層中第k個隱藏單元對應的計算公式可以為如下公式(1):
h k =w 1k x m1+w 2k x m2+...+w Nk x mN +b mk (1)其中,1 k K,第n個維度的特徵資料與第k個隱藏單元之間連線的權重為w nk ,第k個隱藏單元的偏置項為b mk 。第k個隱藏單元輸出的樣本子特徵即可為h k 對應的值。
在一些實施方式中,在步驟S130和步驟S140中,量子態的演化可由酉變換來描述,該酉矩陣層可用於根據樣本特徵對第一量子比特進行酉變換。
例如,在t 1時刻若量子比特所處的量子態為|φ1〉,經過一個 酉變換U,量子比特在t 2時刻所處的量子態為|φ2〉,這個過程可以描述為:|φ2〉=U|φ1〉。酉變換U可以理解為是一個矩陣,並且滿足U U=1(酉正性),也即U與自己的共軛轉置矩陣U 的乘積為1。在量子計算領域中,各種形式的酉矩陣被稱作量子門。
示例性地,可將樣本特徵直接輸入到酉矩陣內,引起酉矩陣的改變,得到與該樣本特徵對應的酉矩陣,再將酉矩陣作用於第一量子比特,引起第一量子比特的量子態的翻轉,得到第二量子比特。其中,第一量子比特可以是單位量子比特,該第一量子比特的量子態與該樣本資料的樣本類別標籤對應。
例如,若樣本類別標籤為二分類標籤,例如分為類別a對應的標籤A和類別b對應的標籤B,則第一量子比特的量子態|〉與樣本類別標籤之間的關係可以設置為如下公式(2):
也即,當樣本資料為類別a的資料,其對應的樣本類別標籤為標籤A,則可選取量子態為|0〉的基態量子比特作為第一量子比特;當樣本資料為類別b的資料,其對應的樣本類別標籤為標籤B,則可選取量子態為|1〉的基態量子比特作為第一量子比特。其中,|〉是狄拉克符號,代表希爾伯特空間 中的向量,
基於此,在隱藏層中包含K個隱藏單元的情況下,也即樣本特徵中包括K個隱藏單元輸出的K個樣本子特徵的情況下,在一些實施方式中,上述步驟S130具體可以包括:
將K個樣本子特徵分別輸入至酉矩陣層,得到與K個樣本子特徵對應的K個酉矩陣。
這裡,一個樣本子特徵可對應計算得到一個酉矩陣。
基於此,在一些實施方式中,本發明實施例中酉矩陣層的運算式可以為公式(3):
其中,α和β可以為調節參數,θ可以為輸入特徵,U(θ)可以為與該輸入特徵對應的酉矩陣。在將樣本特徵輸入至酉矩陣層時,θ可以為輸入的樣本特徵,在樣本特徵中包括K個樣本子特徵時,θ可以為輸入的樣本子特徵。如此,可得到與K個樣本子特徵分別對應的酉矩陣,該K個酉矩陣可構成酉矩陣群U(h 1)U(h 2)…U(h K ),例如如圖2所示的酉矩陣群23。
另外,在一些實施方式中,上述調節參數的值可根據樣本資料的資料特徵確定。
示例性地,α和β是為了避免資料過小加的一個前置項,一般情況下可設置為1。例如,對於商戶交易資料,由於交易資料和百分比都較大,因此無需加振幅α和β,而有時資料較小(例如輸入的樣本特徵為百分數0.1%),則會導致第一量子比特偏轉得不明顯,再加上測量誤差和噪音就有可能會導致無法測量,此時,可通過設置β=1000把數值提升上去,使得第一量子比特偏轉得更明顯。
另外,在一些實施方式中,在得到K個酉矩陣的情況下,上述步驟S140具體可以包括:
將K個酉矩陣與第一量子比特進行連乘,得到第二量子比特。
這裡,可根據如下公式(4)計算第二量子比特對應的量子態|φ〉。
其中,|〉為第一量子比特的量子態,是一個2×1階矩陣,U(h 1)U(h 2)…U(h K )為K個酉矩陣構成的酉矩陣群,( U(h i ))為2×2階矩陣,根據矩陣的乘法原則,|φ〉也是一個2×1階矩陣。
示例性地,如圖2所示,在K個酉矩陣與第一量子比特的量子態|〉進行連乘後,可得到第二量子比特對應的量子態|φ〉。
在一些實施方式中,在步驟S150中,本發明實施例中量子 電路的作用可以是將經由酉矩陣群翻轉調整後的單位量子比特,也即第二量子比特,與第一量子比特的量子態進行對比,確定第二量子比特與第一量子比特之間量子態的相似程度|〈|φ〉|2,即量子態保真度,也可以表達為初量子態為|〉時,下一個量子態為|φ〉的概率。其中,〈|為|〉的共軛轉置矩陣,〈|為1×2階矩陣,|〈|φ〉|2為1×1階陣列,即多項式。量子電路的結構可以是能夠構造出|〈|φ〉|2的任意結構。
基於此,為了構造出|〈|φ〉|2,在一些示例中,量子電路中可以包括第一哈達瑪門、第二哈達瑪門和交換門。相應地,上述步驟S150具體可以包括:
將預設的第三量子比特輸入至第一哈達瑪門,輸出得到第一中間態量子比特;
將第一量子比特和第二量子比特輸入至交換門,並利用第一中間態量子比特對交換門進行控制,輸出得到第二中間態量子比特;
將第二中間態量子比特輸入至第二哈達瑪門,輸出得到第四量子比特;
對第四量子比特的量子態進行多次測量,得到多次測量結果;
根據多次測量結果,確定測量結果為第三量子態的概率值,其中,第三量子態為第三量子比特的量子態;
根據概率值計算第一量子比特與第二量子比特之間的量子態保真度。
這裡,如圖2所示,本發明實施例提供的量子神經網路中可包括量子電路24,該量子電路24中具體可包括第一哈達瑪門241、第二哈達瑪門242和交換門243,可按照如圖2所示的電路元件排列順序設置各個量子門。其中,第一哈達瑪門241和第二哈達瑪門242可以是Hadamard門, 其運算式為,交換門243為
另外,第三量子比特可以是用戶默認設置的量子態為|0〉或|1〉的單位量子比特。該第三量子比特經過第一哈達瑪門處理後,可用於控制交換門。
示例性地,為了便於說明量子電路的計算過程,可將圖2中的量子電路24分割為如圖3所示的|ψ1〉、|ψ2〉、|ψ3〉、|ψ4〉四個部分,具體地,量子電路的輸入為三個量子比特,也即第一量子比特、第二量子比特和第三量子比特。本量子電路的原理在於P點(也即第一中間態量子比特)對交換門的控制,以第三量子比特的量子態為|0〉為例,P點的量子態 可表示為,即第一中間態量子比特的量子態有50%的 概率是|1〉,50%的概率是|0〉。
基於此,如圖3所示,以第一量子比特的量子態為|〉,第二量子比特的量子態為|φ〉,第三量子比特的量子態為|0〉為例,量子電路的輸入態|ψ1〉可以如下述運算式(5)所示:
輸入態|ψ1〉中的第三量子比特|0〉經過第一個H門,也即第一哈達瑪門之後,輸入態|ψ1〉可變成量子態|ψ2〉,其可以表示為如下運算式(6):
其中,H|0〉為第一中間態量子比特。
量子態|ψ2〉再經過一個交換門,可變成量子態|ψ3〉,也即第二中間態量子比特的量子態,該量子態|ψ3〉可以如下述運算式(7)所示:
其中,P點(也即第一中間態量子比特)的量子態為|1〉時,將|φ〉與|〉的位置進行交換,也即將運算式(6)中|1〉|φ〉|〉中的|φ〉與|〉的位置進行交換,變成運算式(7)中的|1〉|〉|φ〉。P點的量子態為|0〉時,|φ〉與|〉的位置不交換。
將第二中間態量子比特輸入至第二個H門,也即第二哈達瑪門之後,第二中間態量子比特可變為量子態為|ψ4〉的第四量子比特,其可以表示為如下運算式(8):
對第四量子比特的量子態|ψ4〉進行測量,得到的測量結果的運算式可以為如下運算式(9):
其中,I為單位矩陣。
基於此,測量結果為|0〉的概率值Prob(0)可根據如下公式(10)計算得到:
如此,可以通過多次測量量子電路的輸出結果,也即第四量子比特的量子態,得到測量結果為|0〉的概率值Prob(0),進而反過來推算出第二量子比特與第一量子比特之間的量子態保真度|〈|φ〉|2,具體如下公式(11)所示:
這裡,進行多次測量的目的是反推出|〈|φ〉|2。例如,測量100次,若其中60次是|0〉,那麼測量結果為|0〉的概率值為0.6,從而可以推算出wN1量子態保真度|〈|φ〉|2=0.6×2-1=0.2。
基於此,在一些示例中,上述利用第一中間態量子比特對交換門進行控制的步驟,具體可以包括:
在第一中間態量子比特為第一量子態的情況下,控制交換門對第一量子比特和第二量子比特的位置進行交換;
在第一中間態量子比特為第二量子態的情況下,控制交換門保持第一量子比特和第二量子比特的位置不變。
這裡,第一量子態可以為|1〉,第二量子態可以為|0〉,具體控制過程示例可參見上述示例中的相應部分,例如對於運算式(7)的相 關解釋部分,在此不再贅述。
在一些實施方式中,在步驟S160中,在確定得到第二量子比特與第一量子比特之間的量子態保真度後,可根據如下公式(12)計算損失值:
其中,C()為在使用第m個樣本資料訓練量子神經網路時計算得到的損失值;為在使用第m個樣本資料訓練量子神經網路時所使用的第一量子比特的量子態;φ m 為在使用第m個樣本資料訓練量子神經網路時所得到的第二量子比特的量子態。|〈|φ〉|2是相似度,1-|〈|φ〉|2就是不相似度,也就是差異度,即損失值。
這裡,公式(12)中是使用1-|〈|φ〉|2代替傳統的損失值計算方式|y-y'2。例如,當|〈|φ〉|2=0.2,損失值就是1-|〈|φ〉|2=0.8。通過觀察損失值的變化,判斷量子神經網路是否收斂,收斂時停止訓練。該損失值是用來度量量子神經網路的預測值|φ〉與真實值|〉的差異程度的,損失值越小,量子神經網路的魯棒性就越好。單個樣本資料登錄至量子神經網路後,通過前向傳播輸出預測值|φ〉,然後利用損失函數可計算出預測值和真實值之間的差異值,也就是損失值。得到損失值之後,量子神經網路通過反向傳播去更新各個參數,例如隱藏層中的權重和偏置項,來降低真實值與預測值之間的損失,使得量子神經網路生成的預測值往真實值方向靠攏,從而達到學習的目的。
另外,本發明實施例可採用隨機梯度下降(Stochastic Gradient Descent,SGD)的方法進行網路參數的調整,具體如下所示:
其中,η為自訂學習率。
SGD的原理在於,每次反覆運算更新時只用一個樣本來對參 數進行更新,也即只用一個樣本資料來更新。這樣,由於每次僅僅採用一個樣本資料來反覆運算,因此訓練速度較快。相對於非隨機演算法,SGD能更有效地利用資訊,特別是資訊比較冗餘的時候。
基於此,在一些具體例子中,量子神經網路的訓練過程可以包括:初始化權重W和偏差b,可取0或者任意亂數;正向傳播──使用給 定的樣本資料,結合隱藏層的權重W和偏差b,計算;反向 傳播──計算偏導,更新權重W和偏差b;通過測量值推斷損失值,計算 出損失值C;輸入下一個樣本資料,並重複上述步驟,直至使用完訓 練集D train 中的所有樣本資料,完成一個輪次的訓練。重複多輪次訓練,觀察損失值的變化,直至損失值收斂時停止訓練。
下面對本發明實施例所提供的資料分類方法進行介紹。
圖4是本發明一個實施例提供的資料分類方法的流程示意圖。該資料分類方法中所使用的訓練後的量子神經網路是根據上述各個實施例提供的量子神經網路的訓練方法訓練得到的。
如圖4所示,該資料分類方法具體可以包括如下步驟:
步驟S410、獲取待分類的目標資料,輸入到量子神經網路中,其中,量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
步驟S420、利用特徵提取層對目標資料進行特徵提取,得到目標資料特徵;
步驟S430、將目標資料特徵輸入至酉矩陣層,得到與目標資料特徵對應的酉矩陣;
步驟S440、基於酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;
步驟S450、利用量子電路確定第六量子比特與第五量子比特之間的量子態保真度;
步驟S460、根據量子態保真度確定目標資料所屬的類別。
由此,通過改進量子神經網路的結構,在量子神經網路中設 置特徵提取層、酉矩陣層和量子電路,進而在利用量子神經網路進行資料分類的過程中,將特徵提取層提取到的與待分類的目標資料對應的目標資料特徵直接輸入至酉矩陣層,製備與目標資料特徵對應的酉矩陣,從而代替傳統方法中的製備量子態資料,將第五量子比特作為啟動函數的替代,使得第五量子比特的量子態被酉矩陣翻轉調整,得到第六量子比特後,再利用量子電路對第六量子比特和第五量子比特進行相似性比對,得到量子態保真度,進而根據該量子態保真度即可確定目標資料所屬的類別。如此,本發明實施例無需進行量子態製備,也無需進行量子態資料的存儲,更不需要使用過多的量子比特,即可使用量子神經網路進行資料分類,從而可以降低量子神經網路的使用難度和複雜度,降低量子神經網路的計算成本。
下面介紹上述各個步驟的具體實現方式。
在一些實施方式中,上述資料分類方法具體可應用於預測商戶借貸風險的場景,在此場景下,待分類的目標資料可以是與待預測的商戶相關的資料。
另外,需要說明的是,由於上述S420至S450的步驟與前述S120至S150的步驟相同或相似,主要是將S120至S150中的樣本資料替換為待分類的目標資料,因此,為表簡潔,在此不再對S420至S450的步驟進行詳細解釋,前述對S120至S150的解釋同樣適用於本實施例中的S420至S450。
這裡,第五量子比特與前述實施例中的第一量子比特類似,第六量子比特與前述實施例中的第二量子比特類似。不同的是,第五量子比特的量子態可以與用戶根據經驗初步判斷目標資料所屬類別的類別標籤對應。例如,若用戶根據經驗初步判斷目標資料應屬於類別a,則第五量子比特的量子態可以與類別a對應的類別標籤A對應,此時,根據上述公式(2),可將量子態為|0〉的單位量子比特作為第五量子比特。當然,第五量子比特也可以是用戶任意設置的一個具有預設量子態的單位量子比特,該默認量子態可以是|0〉,也可以是|1〉,此不作限定。
除此之外,針對上述步驟S460,在一些實施方式中,在確定得到第六量子比特與第五量子比特之間的量子態保真度之後,可利用該量子態保真度的大小判斷目標資料所屬類別是否為與第五量子比特對應的類別標籤相同的類別,進而參考第五量子比特對應的類別標籤確定目標資料所屬類別的類別標籤。
基於此,在一些實施方式中,在第五量子比特的量子態為第四量子態,且第四量子態與第一類別對應的情況下,上述步驟S460具體可以包括:
在量子態保真度大於預設閾值的情況下,確定目標資料屬於第一類別;
在量子態保真度不大於預設閾值的情況下,確定目標資料屬於除第一類別之外的第二類別。
這裡,量子態保真度|〈|φ〉|2越接近1,則說明第六量子比特的量子態與第五量子比特的量子態越相似。
以第四量子態取|1〉為例,若預設閾值設置為0.5,則當|〈|φ〉|2>0.5,說明第六量子比特與第五量子比特相似,也即第六量子比特的量子態也為|1〉,此時根據公式(2)可知,輸入的目標資料所屬的類別為|1〉對應的標籤B所對應的類別b,反之,當|〈|φ〉|2 0.5,說明第六量子比特與第五量子比特不相似,也即第六量子比特的量子態為|0〉,此時根據公式(2)可知,輸入的目標資料所屬的類別為|0〉對應的標籤A所對應的類別a。也即,第一類別可以是標籤B所對應的類別b,第二類別可以是標籤A所對應的類別a。具體可表示為如下運算式(13):
另外,第四量子態也可取|0〉,且取|0〉時與上述過程同理,在此不再贅述。
除此之外,在一些實施方式中,與量子神經網路的訓練過程類似地,目標資料中可以包括與N個維度對應的N個特徵資料,特徵提取 層中可以包括K個隱藏單元,其中,N和K為大於1的整數。
基於此,上述步驟S420具體可以包括:
將N個特徵資料登錄至K個隱藏單元中的每個隱藏單元,利用每個隱藏單元對N個特徵資料進行特徵提取,得到K個子特徵,其中,目標資料特徵包括K個子特徵。
相應地,上述步驟S430具體可以包括:
將K個子特徵分別輸入至酉矩陣層,得到與K個子特徵對應的K個酉矩陣。
另外,在一些實施方式中,上述步驟S440具體可以包括:
將K個酉矩陣與第五量子比特進行連乘,得到第六量子比特。
需要說明的是,上述過程與前述量子神經網路訓練時對樣本資料的處理過程類似,在此不再贅述。
另外,在一些實施方式中,量子電路中可以包括第一哈達瑪門、第二哈達瑪門和交換門;
上述步驟S450具體可以包括:
將預設的第七量子比特輸入至第一哈達瑪門,輸出得到第三中間態量子比特;
將第五量子比特和第六量子比特輸入至交換門,並利用第三中間態量子比特對交換門進行控制,輸出得到第四中間態量子比特;
將第四中間態量子比特輸入至第二哈達瑪門,輸出得到第八量子比特;
對第八量子比特的量子態進行多次測量,得到多次測量結果;
根據多次測量結果,確定測量結果為第七量子態的概率值,其中,第七量子態為第七量子比特的量子態;
根據概率值計算第六量子比特與第五量子比特之間的量子態保真度。
這裡,與前述第三量子比特類似地,第七量子比特也可以是用戶默認設置的量子態為|0〉或|1〉的單位量子比特。
需要說明的是,上述過程與前述量子神經網路訓練時獲取量 子態保真度的過程類似,在此不再贅述。
另外,在一些實施方式中,上述利用第三中間態量子比特對交換門進行控制的步驟具體可以包括:
在第三中間態量子比特為第五量子態的情況下,控制交換門對第五量子比特和第六量子比特的位置進行交換;
在第三中間態量子比特為第六量子態的情況下,控制交換門保持第五量子比特和第六量子比特的位置不變。
這裡,第五量子態例如可以為|1〉,第六量子態例如可以為|0〉。
需要說明的是,上述過程與前述量子神經網路訓練時利用第一中間態量子比特對交換門進行控制的過程類似,在此不再贅述。
另外,在一些實施方式中,酉矩陣層的運算式同樣可以為前述公式(3)。區別在於,輸入特徵θ此處可以為目標資料特徵。基於此,在一些實施方式中,此處調節參數α和β的值可以根據目標資料的資料特徵確定。
綜合上述各個實施例和實施方式,本發明提供的量子神經網路結構具備以下三個優勢。
優勢一:本發明沒有量子態製備過程。不需要將資料預製備成量子態,而是直接讓資料作用於酉矩陣,利用酉矩陣來調整單位量子比特的量子態。本發明中的資料沒有變成量子態,還是經典資料,酉矩陣裡的各個元素也都是經典資料。也即,經典資料沒有變成量子態資料,而是變成了酉矩陣。每一個酉矩陣有四個元素,每個元素都是實數(三角函數),每個元素的取值範圍是-1和1之間(三角函數的值域)。這些酉矩陣乘以量子比特的時候,會改變量子比特的狀態,即翻轉。經典資料沒有變成量子比特,而是變成了使量子比特翻轉的工具。
優勢二:本發明不需要使用量子儲存器儲存量子態資料。量子儲存是實現量子計算的一大難點。量子系統內部非常脆弱,任何一點來 自外部世界的細小干擾都會使整個系統狀態崩潰。這一特性令量子態資料難以存儲,因為很難確定其是否成功保存輸入的資訊。由於量子資訊不可複製且不可放大,使得量子記憶體在量子資訊中的地位比經典記憶體在經典資訊中的地位更加重要。而本發明中,資料還是資料,酉矩陣也是常規資料,不涉及量子態資料,因此不需要量子態資料儲存器。值得注意的是,本發明還是需要在量子電腦上運行,因為涉及了單位量子比特,所以還是需要量子儲存器儲存量子比特,只是無需存儲量子態資料。
優勢三:本發明所需的量子比特數很少(最多3個),成本低,且不存在貧瘠高原現象。量子電腦的比特數和計算成本呈正相關,所需要量子比特數越多的演算法,計算成本越高。對目前普遍的量子神經網路而言,所需量子比特數和一般為P或logP,其中P為特徵維度。所以若樣本資料的特徵維度很大的話,例如有200個特徵,則一般需要200個量子比特。貧瘠高原(Barren Plateaus)現象是指,當量子比特數目比較大時(比如大於10個),傳統量子神經網路的框架很容易變的無法有效進行訓練,目標函數會變得很平,導致梯度變得難以被估計。
需要說明的是,上述本發明實施例描述的應用場景是為了更加清楚的說明本發明實施例的技術方案,並不構成對於本發明實施例提供的技術方案的限定,本領域普通技術人員可知,隨著新應用場景的出現,本發明實施例提供的技術方案對於類似的技術問題,同樣適用。
基於相同的發明構思,本發明還提供了一種量子神經網路的訓練裝置。具體結合圖5進行詳細說明。
圖5是本發明一個實施例提供的量子神經網路的訓練裝置的結構示意圖。
如圖5所示,該量子神經網路的訓練裝置500可以包括:
樣本獲取模組501,用於獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
第一提取模組502,用於利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵;
第一確定模組503,用於將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣;
第一調整模組504,用於基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,所述第一量子比特的量子態與所述樣本類別標籤對應;
損失確定模組505,用於利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,根據所述量子態保真度確定損失值;
參數調整模組506,用於根據所述損失值調整所述量子神經網路中的網路參數,返回執行所述獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至所述量子神經網路收斂,得到訓練後的所述量子神經網路。
下面對上述量子神經網路的訓練裝置500進行詳細說明,具體如下所示:
在其中一些實施例中,所述樣本資料中包括與N個維度對應的N個特徵資料,所述特徵提取層中包括K個隱藏單元,其中,N和K為大於1的整數;
所述第一提取模組502具體用於:
將所述N個特徵資料登錄至所述K個隱藏單元中的每個隱藏單元,利用所述每個隱藏單元對所述N個特徵資料進行特徵提取,得到K個樣本子特徵,其中,所述樣本特徵包括所述K個樣本子特徵;
所述第一確定模組503具體用於:
將所述K個樣本子特徵分別輸入至所述酉矩陣層,得到與所述K個樣本子特徵對應的K個酉矩陣。
在其中一些實施例中,所述第一調整模組504具體用於:
將所述K個酉矩陣與所述第一量子比特進行連乘,得到第二量子比特。
在其中一些實施例中,所述量子電路中包括第一哈達瑪門、第二哈達瑪門和交換門;
所述損失確定模組505包括:
第一輸入子模組,用於將預設的第三量子比特輸入至所述第一哈達瑪門,輸出得到第一中間態量子比特;
第二輸入子模組,用於將所述第一量子比特和所述第二量子比特輸入至所述交換門,並利用所述第一中間態量子比特對所述交換門進行控制,輸出得到第二中間態量子比特;
第三輸入子模組,用於將所述第二中間態量子比特輸入至所述第二哈達瑪門,輸出得到第四量子比特;
第一測量子模組,用於對所述第四量子比特的量子態進行多次測量,得到多次測量結果;
第一處理子模組,用於根據所述多次測量結果,確定測量結果為第三量子態的概率值,其中,所述第三量子態為所述第三量子比特的量子態;
第一計算子模組,用於根據所述概率值計算所述第一量子比特與所述第二量子比特之間的量子態保真度。
在其中一些實施例中,所述第二輸入子模組包括:
第一控制單元,用於在所述第一中間態量子比特為第一量子態的情況下,控制所述交換門對所述第一量子比特和所述第二量子比特的位置進行交換;
第二控制單元,用於在所述第一中間態量子比特為第二量子態的情況下,控制所述交換門保持所述第一量子比特和所述第二量子比特的位置不變。
在其中一些實施例中,所述酉矩陣層的運算式為:
其中,α和β為調節參數,θ為輸入特徵,U(θ)為所述酉矩陣。
在其中一些實施例中,所述調節參數的值根據所述樣本資料的資料特徵確定。
由此,通過改進量子神經網路的結構,在量子神經網路中設置特徵提取層、酉矩陣層和量子電路,進而在訓練過程中將特徵提取層提取到的與樣本資料對應的樣本特徵直接輸入至酉矩陣層,製備與樣本特徵對應的酉矩陣,從而代替傳統方法中的製備量子態資料,將第一量子比特作為啟動函數的替代,使得第一量子比特的量子態被酉矩陣翻轉調整,得到第二量子比特後,再利用量子電路對第二量子比特和第一量子比特進行相似性比對,從而計算損失函數。如此,本發明實施例無需進行量子態製備,也無需進行量子態資料的存儲,更不需要使用過多的量子比特,即可訓練得到量子神經網路,從而可以降低量子神經網路的訓練難度和複雜度,降低量子神經網路的計算成本,降低出現貧瘠高原現象的概率。
另外,本發明還提供了一種資料分類裝置。具體結合圖6進行詳細說明。
圖6是本發明一個實施例提供的資料分類裝置的結構示意圖。
如圖6所示,該資料分類裝置600可以包括:
資料獲取模組601,用於獲取待分類的目標資料,輸入到量子神經網路中,其中,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;
第二提取模組602,用於利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵;
第二確定模組603,用於將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣;
第二調整模組604,用於基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;
保真度確定模組605,用於利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度;
類別確定模組606,用於根據所述量子態保真度確定所述目標資料所 屬的類別。
下面對上述資料分類裝置600進行詳細說明,具體如下所示:
在其中一些實施例中,在所述第五量子比特的量子態為第四量子態,且所述第四量子態與第一類別對應的情況下,所述類別確定模組606包括:
第一確定子模組,用於在所述量子態保真度大於預設閾值的情況下,確定所述目標資料屬於所述第一類別;
第二確定子模組,用於在所述量子態保真度不大於所述預設閾值的情況下,確定所述目標資料屬於除所述第一類別之外的第二類別。
在其中一些實施例中,所述目標資料中包括與N個維度對應的N個特徵資料,所述特徵提取層中包括K個隱藏單元,其中,N和K為大於1的整數;
基於此,所述第二提取模組602具體用於:
將所述N個特徵資料登錄至所述K個隱藏單元中的每個隱藏單元,利用所述每個隱藏單元對所述N個特徵資料進行特徵提取,得到K個子特徵,其中,所述目標資料特徵包括所述K個子特徵;
所述第二確定模組603具體用於:
將所述K個子特徵分別輸入至所述酉矩陣層,得到與所述K個子特徵對應的K個酉矩陣。
在其中一些實施例中,所述第二調整模組604具體用於:
將所述K個酉矩陣與所述第五量子比特進行連乘,得到第六量子比特。
在其中一些實施例中,所述量子電路中包括第一哈達瑪門、第二哈達瑪門和交換門;
基於此,所述保真度確定模組605包括:
第四輸入子模組,用於將預設的第七量子比特輸入至所述第一哈達瑪門,輸出得到第三中間態量子比特;
第五輸入子模組,用於將所述第五量子比特和所述第六量子比特輸入至所述交換門,並利用所述第三中間態量子比特對所述交換門進行控制, 輸出得到第四中間態量子比特;
第六輸入子模組,用於將所述第四中間態量子比特輸入至所述第二哈達瑪門,輸出得到第八量子比特;
第二測量子模組,用於對所述第八量子比特的量子態進行多次測量,得到多次測量結果;
第二處理子模組,用於根據所述多次測量結果,確定測量結果為第七量子態的概率值,其中,所述第七量子態為所述第七量子比特的量子態;
第二計算子模組,用於根據所述概率值計算所述第六量子比特與所述第五量子比特之間的量子態保真度。
在其中一些實施例中,所述第五輸入子模組包括:
第三控制單元,用於在所述第三中間態量子比特為第五量子態的情況下,控制所述交換門對所述第五量子比特和所述第六量子比特的位置進行交換;
第四控制單元,用於在所述第三中間態量子比特為第六量子態的情況下,控制所述交換門保持所述第五量子比特和所述第六量子比特的位置不變。
在其中一些實施例中,所述酉矩陣層的運算式為:
其中,α和β為調節參數,θ為輸入特徵,U(θ)為所述酉矩陣。
在其中一些實施例中,所述調節參數的值根據所述目標資料的資料特徵確定。
由此,通過改進量子神經網路的結構,在量子神經網路中設置特徵提取層、酉矩陣層和量子電路,進而在利用量子神經網路進行資料分類的過程中,將特徵提取層提取到的與待分類的目標資料對應的目標資料特徵直接輸入至酉矩陣層,製備與目標資料特徵對應的酉矩陣,從而代替傳統方法中的製備量子態資料,將第五量子比特作為啟動函數的替代,使得第五量子比特的量子態被酉矩陣翻轉調整,得到第六量子比特後,再 利用量子電路對第六量子比特和第五量子比特進行相似性比對,得到量子態保真度,進而根據該量子態保真度即可確定目標資料所屬的類別。如此,本發明實施例無需進行量子態製備,也無需進行量子態資料的存儲,更不需要使用過多的量子比特,即可使用量子神經網路進行資料分類,從而可以降低量子神經網路的使用難度和複雜度,降低量子神經網路的計算成本。
圖7是本發明一個實施例提供的電子設備的結構示意圖。
在電子設備700可以包括處理器701以及存儲有電腦程式指令的記憶體702。
具體地,上述處理器701可以包括中央處理器(Central Processing Unit,CPU),或者特殊應用積體電路(Application Specific Integrated Circuit,ASIC),或者可以被配置成實施本發明實施例的一個或多個積體電路。
記憶體702可以包括用於資料或指令的大量存放區。舉例來說而非限制,記憶體702可包括硬碟驅動器(Hard Disk Drive,HDD)、磁片機、快閃記憶體、光碟、磁光碟、磁帶或通用序列匯流排(Universal Serial Bus,USB)驅動器或者兩個或更多個以上這些的組合。在合適的情況下,記憶體702可包括可移除或不可移除(或固定)的介質。在合適的情況下,記憶體702可在綜合閘道容災設備的內部或外部。在特定實施例中,記憶體702是非易失性固態記憶體。
在特定實施例中,記憶體可包括唯讀記憶體(Read-Only Memory,ROM),隨機存取記憶體(Random Access Memory,RAM),磁片存儲介質設備,光存儲介質設備,快閃記憶體設備,電氣、光學或其他物理/有形的記憶體存放裝置。因此,通常,記憶體包括一個或多個編碼有包括電腦可執行指令的軟體的有形(非暫態)電腦可讀存儲介質(例如,記憶體設備),並且當該軟體被執行(例如,由一個或多個處理器)時,其可操作來執行參考根據本發明的一方面的方法所描述的操作。
處理器701通過讀取並執行記憶體702中存儲的電腦程式指 令,以實現上述實施例中的任意一種量子神經網路的訓練方法和/或資料分類方法。
在一些示例中,電子設備700還可包括通信介面703和匯流排710。其中,如圖7所示,處理器701、記憶體702、通信介面703通過匯流排710連接並完成相互間的通信。
通信介面703主要用於實現本發明實施例中各模組、裝置、單元和/或設備之間的通信。
匯流排710包括硬體、軟體或兩者,將線上資料流量計費設備的部件彼此耦接在一起。舉例來說而非限制,匯流排710可包括加速圖形埠(Accelerated Graphics Port,AGP)或其他圖形匯流排、增強工業標準架構(Enhanced Industry Standard Architecture,EISA)匯流排、前側匯流排(Front Side Bus,FSB)、超傳送標準(Hyper Transport,HT)互連、工業標準架構(Industry Standard Architecture,ISA)匯流排、無限頻寬互連、低接腳計數(Low Pin Count,LPC)匯流排、記憶體匯流排、微通道架構(Micro Channel Architecture,MCA)匯流排、周邊組件互連(Peripheral Component Interconnect,PCI)匯流排、快速周邊組件互連(Peripheral Component Interconnect Express,PCI-X)匯流排、串列進階技術附接(Serial Advanced Technology Attachment,SATA)匯流排、視訊電子標準協會區域(Video Electronics Standards Association Local Bus,VLB)匯流排或其他合適的匯流排或者兩個或更多個以上這些的組合。在合適的情況下,匯流排710可包括一個或多個匯流排。儘管本發明實施例描述和示出了特定的匯流排,但本發明考慮任何合適的匯流排或互連。
示例性的,電子設備700可以為手機、平板電腦、筆記型電腦、掌上型電腦、車載電子設備、超級行動電腦(Ultra-Mobile Personal Computer,UMPC)、上網本或者個人數位助理(Personal Digital Assistant,PDA)等。
該電子設備700可以執行本發明實施例中的量子神經網路的 訓練方法和/或資料分類方法,從而實現結合圖1至圖6描述的量子神經網路的訓練方法和裝置,和/或,資料分類方法和裝置。
另外,結合上述實施例中的量子神經網路的訓練方法和/或資料分類方法,本發明實施例可提供一種電腦可讀存儲介質來實現。該電腦可讀存儲介質上存儲有電腦程式指令;該電腦程式指令被處理器執行時實現上述實施例中的任意一種量子神經網路的訓練方法和/或資料分類方法。電腦可讀存儲介質的示例包括非暫態電腦可讀存儲介質,如可攜式儲存裝置、硬碟、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、可抹除可程式唯讀記憶體((Erasable Programmable Read-Only Memory,EPROM)或快閃記憶體)、光碟唯讀記憶體(Compact Disc Read-Only Memory,CD-ROM)、光記憶體件、磁記憶體件等。
需要明確的是,本發明並不局限於上文所描述並在圖中示出的特定配置和處理。為了簡明起見,這裡省略了對已知方法的詳細描述。在上述實施例中,描述和示出了若干具體的步驟作為示例。但是,本發明的方法過程並不限於所描述和示出的具體步驟,本領域的技術人員可以在領會本發明的精神後,作出各種改變、修改和添加,或者改變步驟之間的順序。
以上所述的結構框圖中所示的功能塊可以實現為硬體、軟體、韌體或者它們的組合。當以硬體方式實現時,其可以例如是電子電路、特殊應用積體電路(ASIC)、適當的韌體、外掛程式、功能卡等等。當以軟體方式實現時,本發明的元素是被用於執行所需任務的程式或者程式碼片段。程式或者程式碼片段可以存儲在機器可讀介質中,或者通過載波中攜帶的資料信號在傳輸介質或者通信鏈路上傳送。“機器可讀介質”可以包括能夠存儲或傳輸資訊的任何介質。機器可讀介質的例子包括電子電路、半導體記憶體設備、ROM、快閃記憶體、可擦除ROM(Erasable Read Only Memory,EROM)、磁片、CD-ROM、光碟、硬碟、光纖介質、射頻(Radio Frequency,RF)鏈路,等等。程式碼片段可以經由諸如網際網路、 內聯網等的電腦網路被下載。
還需要說明的是,本發明中提及的示例性實施例,基於一系列的步驟或者裝置描述一些方法或系統。但是,本發明不局限於上述步驟的順序,也就是說,可以按照實施例中提及的順序執行步驟,也可以不同於實施例中的順序,或者若干步驟同時執行。
上面參考根據本發明的實施例的方法、裝置(系統)和電腦程式產品的流程圖和/或框圖描述了本發明的各方面。應當理解,流程圖和/或框圖中的每個方框以及流程圖和/或框圖中各方框的組合可以由電腦程式指令實現。這些電腦程式指令可被提供給通用電腦、專用電腦、或其它可程式設計資料處理裝置的處理器,以產生一種機器,使得經由電腦或其它可程式設計資料處理裝置的處理器執行的這些指令使能對流程圖和/或框圖的一個或多個方框中指定的功能/動作的實現。這種處理器可以是但不限於是通用處理器、專用處理器、特殊應用處理器或者現場可程式設計邏輯電路。還可理解,框圖和/或流程圖中的每個方框以及框圖和/或流程圖中的方框的組合,也可以由執行指定的功能或動作的專用硬體來實現,或可由專用硬體和電腦指令的組合來實現。
以上所述,僅為本發明的具體實施方式,所屬領域的技術人員可以清楚地瞭解到,為了描述的方便和簡潔,上述描述的系統、模組和單元的具體工作過程,可以參考前述方法實施例中的對應過程,在此不再贅述。應理解,本發明的保護範圍並不局限於此,任何熟悉本技術領域的技術人員在本發明揭露的技術範圍內,可輕易想到各種等效的修改或替換,這些修改或替換都應涵蓋在本發明的保護範圍之內。
S110,S120,S130,S140,S150,S160:步驟

Claims (20)

  1. 一種量子神經網路的訓練方法,其特徵在於,應用於量子電腦,所述量子電腦包括量子儲存器,所述量子儲存器的存儲功能僅用於存儲量子比特,所述方法包括:電子設備獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;所述電子設備利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵;所述電子設備將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣;所述電子設備基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,所述第一量子比特的量子態與所述樣本類別標籤對應;所述電子設備利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,根據所述量子態保真度確定損失值;所述電子設備根據所述損失值調整所述量子神經網路中的網路參數,返回執行所述獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至所述量子神經網路收斂,得到訓練後的所述量子神經網路。
  2. 如請求項1所述的方法,其中,所述樣本資料中包括與N個維度對應的N個特徵資料,所述特徵提取層中包括K個隱藏單元,其中,N和K為大於1的整數;所述電子設備利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵,包括:所述電子設備將所述N個特徵資料登錄至所述K個隱藏單元中的每個隱藏單元,利用所述每個隱藏單元對所述N個特徵資料進行特徵提取,得到K個樣本子特徵,其中,所述樣本特徵包括所述K個樣本子特徵; 所述電子設備將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣,包括:所述電子設備將所述K個樣本子特徵分別輸入至所述酉矩陣層,得到與所述K個樣本子特徵對應的K個酉矩陣。
  3. 如請求項2所述的方法,其中,所述電子設備基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,包括:所述電子設備將所述K個酉矩陣與所述第一量子比特進行連乘,得到第二量子比特。
  4. 如請求項1所述的方法,其中,所述量子電路中包括第一哈達瑪門、第二哈達瑪門和交換門;所述電子設備利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,包括:所述電子設備將預設的第三量子比特輸入至所述第一哈達瑪門,輸出得到第一中間態量子比特;所述電子設備將所述第一量子比特和所述第二量子比特輸入至所述交換門,並利用所述第一中間態量子比特對所述交換門進行控制,輸出得到第二中間態量子比特;所述電子設備將所述第二中間態量子比特輸入至所述第二哈達瑪門,輸出得到第四量子比特;所述電子設備對所述第四量子比特的量子態進行多次測量,得到多次測量結果;所述電子設備根據所述多次測量結果,確定測量結果為第三量子態的概率值,其中,所述第三量子態為所述第三量子比特的量子態;所述電子設備根據所述概率值計算所述第一量子比特與所述第二量子比特之間的量子態保真度。
  5. 如請求項4所述的方法,其中,所述電子設備利用所述第一中間態量子比特對所述交換門進行控制,包括: 所述電子設備在所述第一中間態量子比特為第一量子態的情況下,控制所述交換門對所述第一量子比特和所述第二量子比特的位置進行交換;所述電子設備在所述第一中間態量子比特為第二量子態的情況下,控制所述交換門保持所述第一量子比特和所述第二量子比特的位置不變。
  6. 如請求項1至5任一項所述的方法,其中,所述酉矩陣層的運算式為: 其中,αβ為調節參數,θ為輸入特徵,U(θ)為所述酉矩陣。
  7. 如請求項6所述的方法,其中,所述調節參數的值根據所述樣本資料的資料特徵確定。
  8. 一種資料分類方法,其特徵在於,應用於量子電腦,所述量子電腦包括量子儲存器,所述量子儲存器的存儲功能僅用於存儲量子比特,所述方法包括:電子設備獲取待分類的目標資料,輸入到量子神經網路中,其中,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;所述電子設備利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵;所述電子設備將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣;所述電子設備基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;所述電子設備利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度;所述電子設備根據所述量子態保真度確定所述目標資料所屬的類別。
  9. 如請求項8所述的方法,其中,在所述第五量子比特的量子態為第四量子態,且所述第四量子態與第一類別對應的情況下,所述根據所述量子態保真度確定所述目標資料所屬的類別,包括: 所述電子設備在所述量子態保真度大於預設閾值的情況下,確定所述目標資料屬於所述第一類別;所述電子設備在所述量子態保真度不大於所述預設閾值的情況下,確定所述目標資料屬於除所述第一類別之外的第二類別。
  10. 如請求項8所述的方法,其中,所述目標資料中包括與N個維度對應的N個特徵資料,所述特徵提取層中包括K個隱藏單元,其中,N和K為大於1的整數;所述電子設備利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵,包括:所述電子設備將所述N個特徵資料登錄至所述K個隱藏單元中的每個隱藏單元,利用所述每個隱藏單元對所述N個特徵資料進行特徵提取,得到K個子特徵,其中,所述目標資料特徵包括所述K個子特徵;所述電子設備將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣,包括:所述電子設備將所述K個子特徵分別輸入至所述酉矩陣層,得到與所述K個子特徵對應的K個酉矩陣。
  11. 如請求項10所述的方法,其中,所述電子設備基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特,包括:所述電子設備將所述K個酉矩陣與所述第五量子比特進行連乘,得到第六量子比特。
  12. 如請求項8所述的方法,其中,所述量子電路中包括第一哈達瑪門、第二哈達瑪門和交換門;所述電子設備利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度,包括:所述電子設備將預設的第七量子比特輸入至所述第一哈達瑪門,輸出得到第三中間態量子比特;所述電子設備將所述第五量子比特和所述第六量子比特輸入至所述交 換門,並利用所述第三中間態量子比特對所述交換門進行控制,輸出得到第四中間態量子比特;所述電子設備將所述第四中間態量子比特輸入至所述第二哈達瑪門,輸出得到第八量子比特;所述電子設備對所述第八量子比特的量子態進行多次測量,得到多次測量結果;所述電子設備根據所述多次測量結果,確定測量結果為第七量子態的概率值,其中,所述第七量子態為所述第七量子比特的量子態;所述電子設備根據所述概率值計算所述第六量子比特與所述第五量子比特之間的量子態保真度。
  13. 如請求項12所述的方法,其中,所述電子設備利用所述第三中間態量子比特對所述交換門進行控制,包括:所述電子設備在所述第三中間態量子比特為第五量子態的情況下,控制所述交換門對所述第五量子比特和所述第六量子比特的位置進行交換;所述電子設備在所述第三中間態量子比特為第六量子態的情況下,控制所述交換門保持所述第五量子比特和所述第六量子比特的位置不變。
  14. 如請求項8至13任一項所述的方法,其中,所述酉矩陣層的運算式為: 其中,αβ為調節參數,θ為輸入特徵,U(θ)為所述酉矩陣。
  15. 如請求項14所述的方法,其中,所述調節參數的值根據所述目標資料的資料特徵確定。
  16. 一種量子神經網路的訓練裝置,其特徵在於,應用於量子電腦,所述量子電腦包括量子儲存器,所述量子儲存器的存儲功能僅用於存儲量子比特,所述裝置包括:樣本獲取模組,用於獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,所述量子神經網路中包括特徵提取層、酉矩陣層和量子 電路;第一提取模組,用於利用所述特徵提取層對所述樣本資料進行特徵提取,得到樣本特徵;第一確定模組,用於將所述樣本特徵輸入至所述酉矩陣層,得到與所述樣本特徵對應的酉矩陣;第一調整模組,用於基於所述酉矩陣對第一量子比特進行量子態調整,得到第二量子比特,其中,所述第一量子比特的量子態與所述樣本類別標籤對應;損失確定模組,用於利用所述量子電路確定所述第二量子比特與所述第一量子比特之間的量子態保真度,根據所述量子態保真度確定損失值;參數調整模組,用於根據所述損失值調整所述量子神經網路中的網路參數,返回執行所述獲取用於訓練量子神經網路的樣本資料及其對應的樣本類別標籤,直至所述量子神經網路收斂,得到訓練後的所述量子神經網路。
  17. 一種資料分類裝置,其特徵在於,應用於量子電腦,所述量子電腦包括量子儲存器,所述量子儲存器的存儲功能僅用於存儲量子比特,所述裝置包括:資料獲取模組,用於獲取待分類的目標資料,輸入到量子神經網路中,其中,所述量子神經網路中包括特徵提取層、酉矩陣層和量子電路;第二提取模組,用於利用所述特徵提取層對所述目標資料進行特徵提取,得到目標資料特徵;第二確定模組,用於將所述目標資料特徵輸入至所述酉矩陣層,得到與所述目標資料特徵對應的酉矩陣;第二調整模組,用於基於所述酉矩陣對第五量子比特進行量子態調整,得到第六量子比特;保真度確定模組,用於利用所述量子電路確定所述第六量子比特與所述第五量子比特之間的量子態保真度; 類別確定模組,用於根據所述量子態保真度確定所述目標資料所屬的類別。
  18. 一種電子設備,其特徵在於,包括:處理器以及存儲有電腦程式指令的記憶體;所述處理器執行所述電腦程式指令時實現如請求項1至7任意一項所述的量子神經網路的訓練方法的步驟,或者如請求項8至15任意一項所述的資料分類方法的步驟。
  19. 一種電腦可讀存儲介質,其特徵在於,所述電腦可讀存儲介質上存儲有電腦程式指令,所述電腦程式指令被處理器執行時實現如請求項1至7任意一項所述的量子神經網路的訓練方法的步驟,或者如請求項8至15任意一項所述的資料分類方法的步驟。
  20. 一種電腦程式產品,其特徵在於,所述電腦程式產品中的指令由電子設備的處理器執行時,使得所述電子設備執行如請求項1至7任意一項所述的量子神經網路的訓練方法的步驟,或者如請求項8至15任意一項所述的資料分類方法的步驟。
TW113114792A 2023-05-30 2024-04-19 量子神經網路的訓練方法和資料分類方法 TWI899965B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202310626399.3A CN116663643B (zh) 2023-05-30 2023-05-30 量子神经网络的训练方法和数据分类方法
CN2023106263993 2023-05-30

Publications (2)

Publication Number Publication Date
TW202447479A TW202447479A (zh) 2024-12-01
TWI899965B true TWI899965B (zh) 2025-10-01

Family

ID=87716581

Family Applications (1)

Application Number Title Priority Date Filing Date
TW113114792A TWI899965B (zh) 2023-05-30 2024-04-19 量子神經網路的訓練方法和資料分類方法

Country Status (3)

Country Link
CN (1) CN116663643B (zh)
TW (1) TWI899965B (zh)
WO (1) WO2024244628A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116663643B (zh) * 2023-05-30 2025-09-16 中国银联股份有限公司 量子神经网络的训练方法和数据分类方法
CN117435917B (zh) * 2023-12-20 2024-03-08 苏州元脑智能科技有限公司 一种情感识别方法、系统、装置及介质
CN118643358B (zh) * 2024-08-15 2024-12-20 厦门工学院 基于Grover搜索算法的量子神经网络聚类方法及终端
CN119578574B (zh) * 2025-02-06 2025-04-18 北京航空航天大学杭州创新研究院 基于参数化量子电路的近似量子振幅编码模型
CN120880925B (zh) * 2025-09-24 2026-01-30 中国电信股份有限公司 预测模型的实现、应用方法、装置、设备、介质和产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108235505A (zh) * 2016-12-09 2018-06-29 阿迪达斯股份公司 用于服装片和运动装备的消息传送单元
TW202036392A (zh) * 2018-09-05 2020-10-01 香港商阿里巴巴集團服務有限公司 量子位元檢測系統及檢測方法
CN114819163A (zh) * 2022-04-11 2022-07-29 合肥本源量子计算科技有限责任公司 量子生成对抗网络的训练方法、装置、介质及电子装置
US20220391705A1 (en) * 2021-05-27 2022-12-08 QC Ware Corp. Training Classical and Quantum Algorithms for Orthogonal Neural Networks

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3619655A1 (en) * 2017-06-02 2020-03-11 Google LLC Quantum neural network
EP3740910B1 (en) * 2018-01-18 2025-03-05 Google LLC Classification using quantum neural networks
WO2020072981A1 (en) * 2018-10-05 2020-04-09 President And Fellows Of Harvard College Quantum convolutional neural networks
EP3674999A1 (en) * 2018-12-27 2020-07-01 Bull SAS Method of classification of images among different classes
WO2020245013A1 (en) * 2019-06-04 2020-12-10 Universita' Degli Studi Di Pavia Artificial neural network on quantum computing hardware
US11797872B2 (en) * 2019-09-20 2023-10-24 Microsoft Technology Licensing, Llc Quantum bit prediction
CN113033703B (zh) * 2021-04-21 2021-10-26 北京百度网讯科技有限公司 量子神经网络训练方法及装置、电子设备和介质
CN114219076B (zh) * 2021-12-15 2023-06-20 北京百度网讯科技有限公司 量子神经网络训练方法及装置、电子设备和介质
CN114863167B (zh) * 2022-04-22 2024-02-02 苏州浪潮智能科技有限公司 一种图像识别分类的方法、系统、设备以及介质
CN115828999B (zh) * 2022-10-21 2023-09-19 中国人民解放军战略支援部队信息工程大学 基于量子态振幅变换的量子卷积神经网络构建方法及系统
CN116663643B (zh) * 2023-05-30 2025-09-16 中国银联股份有限公司 量子神经网络的训练方法和数据分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108235505A (zh) * 2016-12-09 2018-06-29 阿迪达斯股份公司 用于服装片和运动装备的消息传送单元
TW202036392A (zh) * 2018-09-05 2020-10-01 香港商阿里巴巴集團服務有限公司 量子位元檢測系統及檢測方法
US20220391705A1 (en) * 2021-05-27 2022-12-08 QC Ware Corp. Training Classical and Quantum Algorithms for Orthogonal Neural Networks
CN114819163A (zh) * 2022-04-11 2022-07-29 合肥本源量子计算科技有限责任公司 量子生成对抗网络的训练方法、装置、介质及电子装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
期刊 安萬家 基於量子經典混合卷積神經網路的資料分類 CNKI學位論文 vol. 2023, no. 02 萬萬數據 2023/02/15 第5頁第1.3節,第10頁第2.2.2節,第18頁第3章、第3.1節,第21~24頁第3.3節 *

Also Published As

Publication number Publication date
CN116663643B (zh) 2025-09-16
TW202447479A (zh) 2024-12-01
WO2024244628A1 (zh) 2024-12-05
CN116663643A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
TWI899965B (zh) 量子神經網路的訓練方法和資料分類方法
Teye et al. Bayesian uncertainty estimation for batch normalized deep networks
Hayes et al. Bounding training data reconstruction in dp-sgd
Fletcher et al. Inference in deep networks in high dimensions
US20170140298A1 (en) Data Processing
US20200334557A1 (en) Chained influence scores for improving synthetic data generation
US20230153631A1 (en) Method and apparatus for transfer learning using sample-based regularization
WO2021223504A1 (zh) 上下行信道互易的实现方法、通信节点和存储介质
JP6962123B2 (ja) ラベル推定装置及びラベル推定プログラム
CN114072812A (zh) 用于阵点枚举的装置和方法
Alquier et al. Bayesian matrix completion: prior specification
Ma et al. Diffusion model based channel estimation
CN108053025B (zh) 多柱神经网络医学影像分析方法及装置
CN112100642A (zh) 在分布式系统中保护隐私的模型训练方法及装置
Abbas Ahmed et al. Design of time-delay convolutional neural networks (TDCNN) model for feature extraction for side-channel attacks
Tang et al. Composite Estimation for Single‐Index Models with Responses Subject to Detection Limits
CN111478742A (zh) 一种sm4算法的分析方法、系统以及设备
Davis et al. Indirect inference for time series using the empirical characteristic function and control variates
Steinwart et al. An oracle inequality for clipped regularized risk minimizers
CN118820037A (zh) 云服务器的性能预测方法、装置、设备、介质及产品
Bal et al. Extreme Learning Machine based Linear Homogeneous Ensemble for Software Fault Prediction.
Diakonikolas et al. Distribution-independent regression for generalized linear models with oblivious corruptions
Payne et al. Bayesian big data classification: A review with complements
CN116523026A (zh) 模型训练方法、装置、设备及计算机存储介质
CN116431787A (zh) 回复信息的确定方法、装置、设备及计算机存储介质