[go: up one dir, main page]

TWM664095U - 一種用於音樂教學的系統 - Google Patents

一種用於音樂教學的系統 Download PDF

Info

Publication number
TWM664095U
TWM664095U TW113203432U TW113203432U TWM664095U TW M664095 U TWM664095 U TW M664095U TW 113203432 U TW113203432 U TW 113203432U TW 113203432 U TW113203432 U TW 113203432U TW M664095 U TWM664095 U TW M664095U
Authority
TW
Taiwan
Prior art keywords
practitioner
musical instrument
posture
practice
module
Prior art date
Application number
TW113203432U
Other languages
English (en)
Inventor
志堅 黃
Original Assignee
志堅 黃
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 志堅 黃 filed Critical 志堅 黃
Publication of TWM664095U publication Critical patent/TWM664095U/zh

Links

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

本創作公開了一種音樂教學的系統,包括影像模塊,樂器識別模塊,人體姿態估計模塊;所述影像模塊用於獲取練習者的練習影像數據;所述樂器識別模塊用於從所述練習影像數據中獲取樂器數據信息以及與所述練習者相關的人體數據信息;所述人體姿態估計模塊用於根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。本創作採用人體姿態信息和樂器信息相結合的方式,解決了現有技術中不能在練習過程中呈現練習者的人體姿態情況,進而實現對練習過程中人體姿態的校正的問題。

Description

一種用於音樂教學的系統
本創作屬於音樂教學領域,具體涉及一種用於音樂教學的系統。
目前的音樂教學設備例如鍵盤類樂器、管弦樂、打擊樂、彈撥樂器等教學系統是基於傳感器對琴弦、琴鍵進行彈撥、對鼓面進行按壓或敲擊的位置,使用力度等因素,把練習者的曲目演奏情況和曲譜進行對比,以判斷練習者的彈奏好壞。這種方法實際上就是根據練習者使用身體(如手指)或借助其他器具與樂器接觸,把力量施加在樂器後,導致樂器發出聲音,是把音色、音階與樂譜上的音符在比較,這種比較方法無法全面反映練習者在練習過程中人體姿態相對於樂器的位置是否正確,因而無法對練習者為何出現演奏錯誤或動作不到位進行根本性原因的發現,彈奏時學生的彈奏姿勢常常被忽略,錯誤的彈奏姿勢會對學生的身體造成很大損傷。對於練習者在彈奏過程中出現的問題,需要老師或者設備給出有效的校正指示,進而改善演奏。
為了解決上述問題,有鑒於此,亟需提供一種用於音樂教學的系統,以便實現在練習過程中結合樂器類型呈現練習者對應於樂器類型的人體姿態情況。
有鑑於此,本創作人特地針對可調整練習者的練習姿態之音樂教學系統加以研究及改良,期以一較佳設計改善上述問題,並在經過長期研發及不斷測試後,始有本創作之問世。
為了至少解決上述問題,本創作提出了一種用於音樂教學系統,包括:影像模塊,樂器識別模塊,人體姿態估計模塊;所述影像模塊用於獲取練習者的練習影像數據;所述樂器識別模塊用於獲取所述練習影像數據中的一種或多種樂器數據信息;所述人體姿態估計模塊用於從所述練習影像數據中獲取與所述練習者相關的人體數據信息;根據所述人體數據信息和所述樂器數據信息,判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
在第一方面中,本創作提供一種用於音樂教學系統,包括影像模塊,樂器識別模塊,人體姿態估計模塊;所述影像模塊用於獲取練習者的練習影像數據;所述樂器識別模塊用於獲取所述練習影像數據中的一種或多種樂器數據信息;所述人體姿態估計模塊用於從所述練習影像數據中獲取與所述練習者相關的人體數據信息;根據所述人體數據信息和所述樂器數據信息,判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
可選地,將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
可選地,還包括:影像參照模塊和判斷模塊;所述影像參照模塊用於獲取影像參照數據或練習者的練習模板影像數據;所述判斷模塊用於將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
可選地,所述練習影像數據至少包括可見光影像數據、不可見光影像數據或聲納影像數據中的一種或多種。
可選地,根據所述樂器數據信息對樂器類型進行分類以形成樂器分類庫;以及根據所述樂器分類信息將所述樂器數據信息存儲到相應的樂器分類庫。
可選地,其中根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型還包括:根據所述樂器數據信息和所述人體數據信息進行判定,定位練習者與練習姿態相關的關節點位置;基於關節點位置判斷練習者的類型。
可選地,所述練習影像數據還包括階段性的練習模板影像數據,其中所述階段性與時間和/或練習難度相關。
可選地,通過執行人工智能連續影像對比來獲得所述練習影像數據與影像參照數據的對比結果;基於所述對比結果判定練習者的練習優劣度;以及基於所述練習優劣度輸出針對練習者的姿態校正建議。
可選地,還包括以視覺和/或聽覺的方式輸出所述校正指示。
在第二方面中,本創作提供一種用於音樂教學方法,包括獲取練習者的練習影像數據;從所述練習影像數據中獲取樂器數據信息以及與所述練 習者相關的人體數據信息;根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
可選地,將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
可選地,所述練習影像數據至少包括可見光影像數據、不可見光影像數據或聲納影像數據中的一種或多種。
可選地,根據所述樂器數據信息對樂器類型進行分類以形成樂器分類庫;以及根據所述樂器分類信息將所述樂器數據信息存儲到相應的樂器分類庫。
可選地,其中根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型還包括:根據所述樂器數據信息和所述人體數據信息進行判定,定位練習者與練習姿態相關的關節點位置;基於關節點位置判斷練習者的類型。
可選地,所述練習影像數據還包括階段性的練習模板影像數據,其中所述階段性與時間和/或練習難度相關。
可選地,通過執行人工智能連續影像對比來獲得所述練習影像數據與影像參照數據的對比結果;基於所述對比結果判定練習者的練習優劣度;以及基於所述練習優劣度輸出針對練習者的姿態校正建議。
可選地,還包括以視覺和/或聽覺的方式輸出所述校正指示。
與現有技術相比,本創作具有以下優點: 本創作提供一種用於音樂教學的系統,本創作通過在練習者練習過程中獲取練習影像數據,從練習影像數據中提取樂器數據信息和練習者的人體數據信息;結合人體數據信息和樂器數據信息對練習者的練習類型進行判斷,依據練習類型對人體數據信息進行標記,以獲得練習者對應於練習者正在使用的練習樂器的練習姿態,從而便於將練習姿態情況的影像進行存儲、比對、或通過數據傳輸呈現給遠程的老師。進一步地,通過將練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示,進而實現可以智能、直觀地給出對應於練習者所使用的器材的練習姿勢的判斷和校正建議。
〔本創作〕
100、200:方法
300:系統
301:影像模塊
302:樂器識別模塊
303:人體姿態估計模塊
304:影像參照模塊
305:判斷模塊
500:設備組成
501:主機
502:第一攝像頭
503:第二攝像頭
504:琴面
505:固定杆
S101、S102、S103、S104、S201、S202、S203、S204、S205:步驟
通過參考附圖閱讀下文的詳細描述,本創作示例性實施方式的上述以及其他目的、特徵和優點將變得易於理解。在附圖中,以示例性而非限制性的方式示出了本創作的若干實施方式,並且相同或對應的標號表示相同或對應的部分,其中:[圖1]示出了本創作第一實施例的用於音樂教學的方法的示例性流程圖。
[圖2]示出了本創作第二實施例的用於音樂教學的方法的示例性流程圖。
[圖3]示出了本創作第三實施例的用於音樂教學的系統的方塊示意圖。
[圖4]示出了本創作實施例的音樂練習者人體姿態關節點位識別圖像特徵示範。
[圖4a]示出了本創作實施例的根據圖4提取的關鍵關節點位圖示範性示例。
[圖5a]示出了本創作一種實施例的影像模塊的設備組成的示範性示例。
[圖5b]示出了本創作另外一種實施例的影像模塊的設備組成的示範性示例。
[圖5c]示出了本創作另外一種實施例的一種用於音樂教學的電子設備的示範性示例。
本創作係一種用於音樂教學的系統,其實施手段、特點及其功效,茲舉數種較佳可行實施例並配合圖式於下文進行詳細說明,俾供 鈞上深入瞭解並認同本創作。
下面將結合本創作實施例中的附圖,對本創作實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例是本創作一部分實施例,而不是全部的實施例。基於本創作中的實施例,本創作所屬技術領域中具有通常知識者在沒有做出進步性勞動前提下所獲得的所有其他實施例,都屬於本創作保護的範圍。
應當理解,本創作的說明書和申請專利範圍中使用的術語“包括”和“包含”指示所描述特徵、整體、步驟、操作、元素和/或組件的存在,但並不排除一個或多個其它特徵、整體、步驟、操作、元素、組件和/或其集合的存在或添加。
還應當理解,在此本創作說明書中所使用的術語僅僅是出於描述特定實施例的目的,而並不意在限定本創作。如在本創作說明書和申請專利範圍中所使用的那樣,除非上下文清楚地指明其它情況,否則單數形式的“一”、“一個”及“該”意在包括複數形式。還應當進一步理解,在本創作說明書和 申請專利範圍中使用的術語“和/或”是指相關聯列出的項中的一個或多個的任何組合以及所有可能組合,並且包括這些組合。
如在本說明書和申請專利範圍中所使用的那樣,術語“如果”可以依據上下文被解釋為“當...時”或“一旦”或“響應於確定”或“響應於檢測到”。類似地,短語“如果確定”或“如果檢測到[所描述條件或事件]”可以依據上下文被解釋為意指“一旦確定”或“響應於確定”或“一旦檢測到[所描述條件或事件]”或“響應於檢測到[所描述條件或事件]”。
以下結合附圖對本創作的優選實施例進行說明,應當理解,此處所描述的優選實施例僅用於說明和解釋本公開,並不用於限定本公開。
針對現有技術中不能直觀呈現練習者人體姿態的問題,本創作的第一實施例提供一種用於音樂教學的方法100,下面參照附圖1詳細描述。
如圖1所示,一種用於音樂教學的方法100包括:在步驟S101中:獲取練習者的練習影像數據。
優選地,所述練習影像數至少包括可見光影像數據、不可見光影像數據或聲納影像數據中的一種或多種。其中可見光影像可以是普通照相機或者攝像機等攝影設備拍攝的影像,不可見光影像數據是指紅外相機、紅外攝像機等拍攝的影像。
在步驟S102中:從所述練習影像數據中獲取樂器數據信息以及與所述練習者相關的人體數據信息。
優選地,根據所述樂器數據信息對樂器類型進行分類以形成樂器分類庫;以及根據所述樂器分類信息將所述樂器數據信息存儲到相應的樂器分類庫。
其中獲取樂器數據信息可以包括一種或多種樂器,根據樂器的外形或者音色信息對練習影像數據中的樂器進行分類形成樂器分類庫,例如樂器分類庫可以定義為管弦樂器、鍵盤樂器、打擊樂器等等。
進一步地,還包括根據練習者需求添加練習者自定義的樂器分類庫。例如,練習者可以根據需求對樂器進行改進,形成新的樂器類型,進而形成新的樂器分類庫。練習者也可以根據需求對已有的樂器分類庫進行分類的重新組合。
在步驟S103中:根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型。
優選地,根據所述樂器數據信息和所述人體數據信息進行判定,定位練習者與練習姿態相關的關節點位置;基於關節點位置判斷練習者的類型。
其中,對關節點位置定位後形成關節點位的識別圖像,關節點位的識別圖像特徵示範請參考圖4。所述關節點位的識別圖像基於人體姿態估計得出,人體姿態估計是指通過計算機算法在圖像或視頻中定位人體關鍵點(如肩、肘、腕、髖膝、膝、踝,手指等)。
在步驟S104中:根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態;下面結合圖4中進行烏克麗麗練習的小女孩的圖像以及圖4a示出的上述小女孩的關節點識別標識,舉例說明上述方法100的具體實現過程:根據步驟S101,通過影像設備獲取烏克麗麗練習者或者訓練過程的圖像或視頻,圖像的獲取可以採用接入網路的攝像機或者手機拍攝,拍攝的 影像通過網路上傳到雲端服務器進行後續的數據分析,或者採用在本地設備上進行後續的數據分析,例如通過手機上的APP實現。
根據步驟S102所述的從所述練習影像數據中獲取樂器數據信息以及與所述練習者相關的人體數據信息。具體地,在如圖4這樣的實際場景中,首先需要在上述小女孩進行烏克麗麗練習過程的影像信息(圖像或視頻幀)中定位人體,例如,在小女孩演奏烏克麗麗過程中,通過定位小女孩人體部位關鍵關節點的位置,即,在人體區域內,首先識別關鍵的關節點的位置,例如主體軀幹的大關節點,例如頭部、頸部、肩部、肘部、腕部、手部、髖部、膝蓋和腳踝等,並對可以明顯體現烏克麗麗演奏過程的身體軀幹姿態的關鍵關節點的位置進行標識,例如手部關節點進行詳細標識。然後,從練習者練習過程的影像信息中提取樂器部分的圖像,將提取的樂器部分的圖像與現有的樂器數據庫比對可以直接識別出練習者所使用的器材,或者根據前述身體關鍵關節點的信息識別出練習者所使用的器材,進而得到相關的樂器數據信息,比如通過手部的姿態即大致區分出是鍵盤類樂器還是琴弦類樂器,比如彈鋼琴和彈吉烏克麗麗手部姿態有比較明顯的區別。進一步地,還可以根據樂器數據信息和練習者的前述的人體姿態識別出練習者的演奏場景。其中演奏場景包括樂器器材的數據信息(具體到烏克麗麗還是吉他,或者鋼琴還是電子琴等類似的某一類樂器中的一種)、多個拍攝視角等信息,其中樂器數據信息也可以採用聲音識別的方式識別得出。
根據步驟S103,根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型;根據圖4a中身體軀幹姿態和手部關節的標識信息以及樂器的圖像,可以判斷出小女孩彈奏的樂器是烏克麗麗,進一步根據手部的姿態, 可以得出小女孩的練習類型,即小女孩是初學者或者專業演奏者等不同的演奏練習階段,其中對彈奏過程中動作質量影響最大的是手部各個關鍵關節點的位置,所以,對手部關鍵關節點的標識和呈現,能夠清晰呈現彈奏動作中存在的問題。類似地,結合實際情況,對於練習者進行其他類型樂器的演奏,採用如上的方法可以得出練習者的練習類型或者練習階段。其中,人體區域關節點的具體的識別技術可以採用計算機視覺和深度學習技術,如卷積神經網路等。
識別關鍵關節點的位置可以採用關鍵點自動檢測算法,通常需要利用計算機視覺和深度學習技術在圖像或視頻幀中自動識別關鍵關節點的位置。自動檢測算法需要大量已標注的數據進行訓練,以便在新的圖像上實現準確的關鍵點識別。大量已標注的數據輸入現有的預訓練姿態識別模型(如OpenPose、PoseNet或AlphaPose等基礎模型)進行訓練,使用預訓練模型提取特徵,進而得到關鍵關節位置的識別並進行標記。這些預訓練姿態識別模型在通用人體姿態識別方面表現良好,並可以處理多種場景和姿勢。可以理解的是上面的描述僅僅是示例性的而非限制性的,本創作所屬技術領域中具有通常知識者根據本創作的指導可以對上述方法進行改變而不脫離本創作的精神和實質。
根據步驟S104,當採集到音樂演奏練習者的圖像或視頻時,對攝像或者照相設備捕捉到的圖像或視頻數據進行分析,根據前述的練習類型提取當前練習者的關鍵點坐標,標記關鍵關節點坐標位置,其中坐標位置可以是相對值。進而綜合人體數據信息的標記獲得練習者的練習姿態。進一步地,所述練習姿態的結果用於分析練習者的技巧、評估動作質量等任務。
根據本創作的一個優選實施例,所述步驟S101中的練習影像數據還包括階段性的練習模板影像數據,其中所述階段性與時間和/或練習難度相 關。所述練習影像數據可以用於存儲練習者以往練習過程中每個練習階段的練習數據,以備練習者自己或者老師對練習過程中各個階段的練習數據進行對比,用於判斷練習者的演奏水平是否有所提升或者有什麼缺陷。
針對現有技術中不能以圖像或者音頻的方式將練習者人體姿態進行分析並給出校正建議的問題,本創作的第二實施例提供一種用於音樂教學的方法。
如圖2所示,一種用於音樂教學的方法200包括:在步驟S201中:獲取練習者的練習影像數據。
在步驟S202中:從所述練習影像數據中獲取樂器數據信息以及與所述練習者相關的人體數據信息。
在步驟S203中:根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型。
在步驟S204中:根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
在步驟S205中:將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
其中,影像參照數據是從有名的音樂家或某年齡段的音樂佼佼者彈奏時的影像生成的影像參照數據或者由老師根據練習者的進度,製作的針對於練習者一個練習階段的練習模板影像數據,所述練習模板影像數據可以是老師示範或者練習者在老師指導下做出的標準動作。
進一步地,通過執行人工智能連續影像對比來獲得所述練習影像數據與影像參照數據的對比結果;基於所述對比結果判定練習者的練習優劣度;以及基於所述練習優劣度輸出針對練習者的姿態校正建議。
在實際應用中,練習者通過借助人工智能連續影像對比功能獲得自己一個階段的練習過程的評價,基於前述利用計算機視覺和深度學習技術練習者一個階段的連續圖像或視頻幀中自動識別關鍵關節點的位置並進行標注,得到練習者多個練習階段的影像標注和對比結果,通過對比結果,進而得出練習過程的評價。比如得出的是有所改善還是退步的評價以及練習過程中一直存在的比較嚴重的問題。
如圖3所示,本創作的第三實施例還提供一種用於音樂教學的系統300,包括:影像模塊301,樂器識別模塊302,人體姿態估計模塊303,影像參照模塊304和判斷模塊305。
所述影像模塊301用於獲取和存儲練習者的練習影像數據;所述樂器識別模塊302用於獲取所述練習影像數據中的一種或多種樂器數據信息;所述人體姿態估計模塊303從所述練習影像數據中獲取與所述練習者相關的人體數據信息;根據所述人體數據信息和所述樂器數據信息,判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
其中,人體姿態估計包括判斷身體動作,包括區別於不同樂器練習中的人體重要大關節的位置和指關節,尤其是所有指關節的動作(其他領域的人體姿態估計只有17點或33點,很少會使用所有指關節作為參數。)。
比如鋼琴練習時,需要用到抬臂,甩臂、立指、滑指、固定腕、肘關節。
比如小提琴的:握弓、執弓、連弓、頓弓、虎口保持鬆弛等。
比如打擊樂的手掌彎曲舉至胸前等。
為了實現人體姿態估計,可以會採用人體姿態識別技術。人體姿態識別技術可以包括以下幾個步驟:人體檢測:在圖像或視頻幀中定位人體,為後續的姿態識別提供空間範圍。
關鍵關節點檢測:在人體區域內,識別關鍵關節點的位置,例如頭部、頸部、肩部、肘部、腕部、髖部、膝蓋和腳踝等。人體姿態識別算法包括OpenPose或DeepLabCut等。這些算法可以在給定示範的圖像上輸出關鍵點的二維坐標或三維坐標,這些坐標可以進一步用於分析人體姿態。
姿態構建:將檢測到的關鍵關節點連接起來,構建人體的骨架模型,從而描述人體的姿態。
對攝像頭或深度相機捕捉到的圖像或視頻數據進行分析,提取練習者的關鍵點坐標,標注關鍵關節點。
隨著深度學習和卷積神經網路(CNN)的快速發展,人體姿態識別技術取得了顯著的進步,通常採用深度學習的方法。一些典型的深度學習方法,如HourglassNetwork、、PoseNet和AlphaPose等,已經在人體姿態識別任務上取得了很高的準確率和實時性能。
通過上面的人體姿態識別進而得到對人體姿態的描述,即,實現人體姿態估計。
具體地,例如,在圖4中,例如對鋼琴練習者或者鍵盤使用者的人體姿態識別通常聚焦於手部、手指、手腕和上肢等關鍵區域。以下是關於上述兩種練習者人體姿態估計的示範性方法。
1)明確關鍵關節集:針對上述練習者的姿態識別任務,明確關鍵關節集。對於鋼琴練習者,這通常包括手腕、掌部、各指關節等。確保在圖像中標注的關鍵關節能夠涵蓋鋼琴演奏過程中的主要動作。
2)選擇合適的圖像和視頻:為了獲取高質量的標注數據,應選擇清晰、高分辨率的圖像和視頻,避免運動模糊和遮擋。此外,為了提高識別的準確度,儘量選擇多角度、多場景和多種練習者類型的數據。
3)使用專門的手部姿態識別模型:可以使用專門針對手部姿態識別的預訓練模型,如Hand3D、DeepHPS或OpenPose手部模塊模型等。這些模型在手部姿態識別任務上表現良好,可以作為基礎模型進行針對上述練習者的影像進行學習。
4)將預訓練模型應用於上述練習者的姿態識別任務。首先,使用預訓練模型提取特徵,然後使用專門收集的上述練習者數據集進行訓練和微調,以便更好地適應上述練習場景。
5)數據增強:為了提高模型的泛化能力,可以使用數據增強技術,如圖像旋轉、翻轉、裁剪、縮放、亮度和對比度調整等,來增加訓練數據的多樣性。這有助於讓模型在不同場景和視角下獲得更好的表現。
6)通過使用上述訓練後的模型進行新圖像的關節點識別和標注。將音樂器材特徵和人體姿態數據進行融合,形成一個綜合數據集。還可以使用時間戳將音樂特徵和姿態數據同步,以便在分析中考慮它們之間的關係。
所述影像參照模塊304用於獲取影像參照數據或練習者的練習模板影像數據;所述判斷模塊305用於將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
其中,上述三個實施例中的各個步驟的全部或部份功能可以利用本地設備的API調用雲端的設備或其他分布式設備之算力協助完成。
圖4示出了本創作實施例的用於音樂教學的方法中的關節點位識別的圖像特徵示範示例。
圖5a示出了本創作一種實施例的影像模塊的設備組成500,本創作的影像模塊可以包括從下到上依次安裝於固定杆505上的感應器501、第一攝像頭502和第二攝像頭503。進一步地,所述感應器501可以是產生紅外線的雷射器或者產生其他顏色光(例如綠光)的雷射器。優選地,所述雷射器例如可以是紅外一字雷射器。需要說明的是,本創作的影像模塊選擇紅外線作為信號檢測的光源,是因為紅外雷射具有低功耗、集成度效果好和發光頻率單一等優點,並且由於樂器的演奏界面(例如鍵盤)通常是一個平面,因此不能採用傳統的單束雷射作為光源。基於上述原理,本創作採用紅外一字雷射器作為檢測光源。特別地,紅外一字雷射器可配置成可調發射角度和方向,如果演奏的樂器是鋼琴時,所發射的紅外線可以與琴面(504)平行,並且其安裝位置靠近琴面,以使得其發射的雷射平面緊貼琴面。
所述第一攝像頭502和第二攝像頭503可以是廣角攝像頭,其配置用於分別採集所述樂器數據信息和人體數據信息。具體地,當演奏者進行演奏時,其手指或敲擊器具會阻擋並反射按壓或敲擊鍵位置的紅外線,此時該按壓或敲擊鍵即被觸發,於是攝像頭實時拍攝到手指或敲擊器具對紅外線進行阻擋時的圖像,並將該圖像傳送給人體姿態估計模塊和/或判斷模塊做進一步分析和處理。另外,所述第一攝像頭502和第二攝像頭503的安裝高度可以根據其拍攝的範圍進行調整,其拍攝的範圍應能分別覆蓋樂器整體情況和人體關鍵關節部位。
如圖5b所示,本創作另外一種實施例的影像模塊的設備組成,本創作的影像模塊可以包括從下到上依次安裝於固定杆505上的第一攝像頭502和第二攝像頭503。
所述第一攝像頭502和第二攝像頭503可以是具有廣角攝像頭,其配置用於分別採集所述樂器數據信息和人體數據信息。具體地,當演奏者進行演奏時,攝像頭實時拍攝到手指或敲擊器具時的圖像,並將該圖像傳送給人體姿態估計模塊和/或判斷模塊做進一步分析和處理。另外,所述第一攝像頭502和第二攝像頭503的安裝高度可以根據其拍攝的範圍進行調整,其拍攝的範圍應能分別覆蓋樂器整體情況和人體關鍵關節部位。
如圖5c所示,本創作另外一種實施例的提供一種用於音樂教學的電子設備,包括:主機501,第一攝像頭502和第二攝像頭503;主機501用於接收第一攝像頭502和第二攝像頭503的拍攝的圖像;在本實施例中僅示意性地給出第一攝像頭502和第二攝像頭503安裝於固定杆505上,並不對其安裝方式和位置進行限定;主機501還包括處理器;以及存儲器,其用於存儲用於音樂教學的 程序指令,當所述處理器運行該程序指令時,使得所述電子設備執行根據第一實施例任一項所述方法。
上述兩個實施例中所述的第一攝像頭,第二攝像頭,感應器三者是”或”的關係,可以配合使用,也可以獨立設置,可設置於不同的模塊或設備上(比如不同的電腦主機或者手機上),在具體實施過程中,第一攝像頭和第二攝像頭的功能並不做限制。
本創作的技術方案尤其適用於在AI晶片中對練習者的影像數據進行處理。
綜上,本創作通過獲取練習過程中的影像數據並對練習過程進行過程性控制,將練習姿態情況的影像進行存儲、標記處理,直接呈現於教學設備中或者通過數據傳輸呈現給遠程的老師,進而,通過對練習者影像數據的分析對比,實現可以智能、直觀地給出對應於練習者所使用的器材的練習姿勢的判斷和校正建議。
綜觀上述,本創作所揭露之技術手段不僅為前所未見,且確可達致預期之目的與功效,故兼具新穎性與進步性,誠屬專利法所稱之新型無誤,以其整體結構而言,確已符合專利法之法定要件,爰依法提出新型專利申請。
惟以上所述者,僅為本創作之較佳實施例,當不能以此作為限定本創作之實施範圍,即大凡依本創作申請專利範圍及說明書內容所作之等效變化與修飾,皆應仍屬於本創作專利涵蓋之範圍內。
300:系統
301:影像模塊
302:樂器識別模塊
303:人體姿態估計模塊
304:影像參照模塊
305:判斷模塊

Claims (9)

  1. 一種用於音樂教學的系統,其特徵在於,包括:影像模塊,樂器識別模塊,人體姿態估計模塊;所述影像模塊係耦接所述樂器識別模塊與所述人體姿態估計模塊,所述樂器識別模塊係耦接所述人體姿態估計模塊;所述影像模塊用於獲取練習者的練習影像數據;所述樂器識別模塊用於獲取所述練習影像數據中的一種或多種樂器數據信息;所述人體姿態估計模塊用於從所述練習影像數據中獲取與所述練習者相關的人體數據信息;根據所述人體數據信息和所述樂器數據信息,判斷練習者的練習類型;根據所述練習類型對人體數據信息進行標記,以獲得練習者的練習姿態。
  2. 如請求項1所述之系統,其中,還包括:影像參照模塊和判斷模塊;所述影像參照模塊與所述人體姿態估計模塊係耦接所述判斷模塊;所述影像參照模塊用於獲取影像參照數據或練習者的練習模板影像數據;所述判斷模塊用於將所述練習者的練習姿態與影像參照數據或練習模板影像數據進行比對,以判斷所述練習者的練習姿態是否正確;以及響應於判斷所述練習者的練習姿態不正確,輸出用於校正所述練習者的練習姿態的校正指示。
  3. 如請求項1所述之系統,其中,所述練習影像數據至少包括可見光影像數據、不可見光影像數據或聲納影像數據中的一種或多種。
  4. 如請求項1所述之系統,其中,所述練習影像數據還包括階段性的練習模板影像數據,其中所述階段性與時間和/或練習難度相關。
  5. 如請求項2所述之系統,其中,還包括; 根據所述樂器數據信息對樂器類型進行分類以形成樂器分類庫;以及根據所述樂器分類信息將所述樂器數據信息存儲到相應的樂器分類庫。
  6. 如請求項5所述之系統,其中,還包括根據練習者需求添加練習者自定義的樂器分類庫。
  7. 如請求項1所述之系統,其中,其中根據所述人體數據信息和所述樂器數據信息判斷練習者的練習類型還包括:根據所述樂器數據信息和所述人體數據信息進行判定,定位練習者與練習姿態相關的關節點位置;基於關節點位置判斷練習者的類型。
  8. 如請求項2所述之系統,其中,還包括:通過執行人工智能連續影像對比來獲得所述練習影像數據與影像參照數據的對比結果;基於所述對比結果判定練習者的練習優劣度;以及基於所述練習優劣度輸出針對練習者的姿態校正建議。
  9. 如請求項2至請求項8中任一項所述之系統,其中,還包括以視覺和/或聽覺的方式輸出所述校正指示。
TW113203432U 2023-04-12 2024-04-09 一種用於音樂教學的系統 TWM664095U (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202320815179 2023-04-12
CN2023208151790 2023-04-12

Publications (1)

Publication Number Publication Date
TWM664095U true TWM664095U (zh) 2024-12-11

Family

ID=94735807

Family Applications (1)

Application Number Title Priority Date Filing Date
TW113203432U TWM664095U (zh) 2023-04-12 2024-04-09 一種用於音樂教學的系統

Country Status (1)

Country Link
TW (1) TWM664095U (zh)

Similar Documents

Publication Publication Date Title
US20180315329A1 (en) Augmented reality learning system and method using motion captured virtual hands
TWI878086B (zh) 一種用於音樂教學的方法、設備和計算機可讀存儲介質
CN113762133A (zh) 基于人体姿态识别的自重健身辅助教练系统、方法、终端
CN113657184B (zh) 一种钢琴弹奏指法的评估方法及装置
WO2022052941A1 (zh) 用于辅助钢琴教学的智能识别方法及系统、智能钢琴训练方法及系统
CN113409651B (zh) 直播健身方法、系统、电子设备、存储介质
Ng et al. 3D augmented mirror: a multimodal interface for string instrument learning and teaching with gesture support
CN112488047B (zh) 一种钢琴指法智能识别方法
CN113657185A (zh) 一种钢琴练习智能辅助方法、装置及介质
WO2024212940A1 (zh) 一种用于音乐教学的方法、设备和计算机可读存储介质
CN114170868A (zh) 智能钢琴训练的方法和系统
KR20130067856A (ko) 손가락 동작을 기반으로 하는 가상 악기 연주 장치 및 방법
CN114092971B (zh) 一种基于视觉图像的人体动作评估方法
TWM664095U (zh) 一種用於音樂教學的系統
CN119399242B (zh) 一种乒乓球辅助训练方法、存储介质、装置及终端设备
KR102171319B1 (ko) 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법
WO2023105601A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114360052A (zh) 一种基于AlphaPose和关节点角度匹配算法的智能体感教练系统
Kerdvibulvech et al. Real-time guitar chord estimation by stereo cameras for supporting guitarists
CN117077084B (zh) 一种基于时空异构双流卷积网络的舞蹈评分方法
CN113255470A (zh) 基于手部姿态估计的多模态钢琴陪练系统及方法
Kerdvibulvech et al. Guitarist fingertip tracking by integrating a Bayesian classifier into particle filters
Enkhbat et al. Using Hybrid Models for Action Correction in Instrument Learning Based on AI
Zhao et al. A study on attention-based fine-grained image recognition: Towards musical instrument performing hand shape assessment
TW202419138A (zh) 高爾夫球教學方法及高爾夫球教學系統