[go: up one dir, main page]

JP2017173651A - Musical sound control device, electronic musical instrument, musical sound control device control method, and musical sound control device program - Google Patents

Musical sound control device, electronic musical instrument, musical sound control device control method, and musical sound control device program Download PDF

Info

Publication number
JP2017173651A
JP2017173651A JP2016061112A JP2016061112A JP2017173651A JP 2017173651 A JP2017173651 A JP 2017173651A JP 2016061112 A JP2016061112 A JP 2016061112A JP 2016061112 A JP2016061112 A JP 2016061112A JP 2017173651 A JP2017173651 A JP 2017173651A
Authority
JP
Japan
Prior art keywords
lip
timing
lead
sensor information
contact position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016061112A
Other languages
Japanese (ja)
Other versions
JP6724465B2 (en
Inventor
千寿 外山
Chihiro Toyama
千寿 外山
一貴 春日
Kazutaka Kasuga
一貴 春日
林 龍太郎
Ryutaro Hayashi
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016061112A priority Critical patent/JP6724465B2/en
Publication of JP2017173651A publication Critical patent/JP2017173651A/en
Priority to JP2020107401A priority patent/JP6923047B2/en
Application granted granted Critical
Publication of JP6724465B2 publication Critical patent/JP6724465B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】 リップ・ポジションに応じて生成するエフェクトによって演奏者の意図しない音が発生することを防止することのできる楽音制御装置を提供すること。【解決手段】本発明の楽音制御装置は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、リップのリード上における接触位置を決定する位置決定処理と、位置決定処理にて決定された接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、センサ情報に基づいて、リップがリード上から離れる動作を開始したことを検知する検知処理と、センサ情報に基づいて、リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくともリップがリードから離れる動作を完了した第2のタイミングまでの間、第1のタイミングでの接触位置を、実際のリップの接触位置として設定する処理と、を実行する処理部を有する。【選択図】図10PROBLEM TO BE SOLVED: To provide a musical sound control device capable of preventing a sound not intended by a performer from being generated by an effect generated according to a lip position. A tone control device of the present invention is a position determination process for determining a contact position of a lip on a lead based on sensor information from a lip detection sensor for detecting a contact state of a lip on the lead, and a position determination. Musical sound control processing for controlling the musical sound generated by the sound source unit corresponding to the contact position determined in the processing, and detection processing for detecting that the lip has started to move away from the lead based on the sensor information. When it is determined that the lip leaving form is the first form based on the sensor information, from the first timing to at least the second timing at which the lip completes the operation of leaving the lead, the first And a processing unit that executes a process of setting the contact position at the timing of as the actual contact position of the lip. [Selection diagram] Fig. 10

Description

本発明は、楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラムに関する。   The present invention relates to a musical tone control device, an electronic musical instrument, a musical tone control device control method, and a musical tone control device program.

管楽器の楽音を電子的に合成して出力する電子楽器では、感圧式のリップ検出部をリードに複数配置し、唇と舌との位置を検出して楽音制御することが知られている。この種の電子楽器では、楽音信号にエフェクトないし効果音を付与したうえで発音することができることが知られている(特許文献1参照)。   In an electronic musical instrument that electronically synthesizes and outputs a musical tone of a wind instrument, it is known that a plurality of pressure-sensitive lip detectors are arranged on a lead and the musical tone is controlled by detecting the positions of the lips and the tongue. It is known that this type of electronic musical instrument can produce sound after adding an effect or sound effect to a musical sound signal (see Patent Document 1).

特開平7−72853号公報JP 7-72853 A

エフェクトの付与のさせ方は幾つか存在し、例えばリード上の下唇の位置(リップ・ポジション)に応じて付与されるエフェクトが変化することが知られており、演奏者は、リップ・ポジションを移動させることで付与されるエフェクトを変化させて、演奏に幅を持たせることができる。   There are several ways to apply effects. For example, it is known that the applied effect changes depending on the position of the lower lip on the lead (lip position). By changing the effect that is applied, the performance can be widened.

ところで、演奏者が例えば発音を停止するために口をマウスピースから離す場合、下唇の動きには次の2種類が存在することが知られている。
(a)マウスピースを引っ張りながら下唇を離す。つまり、下唇が、リードの先端方向に移動しつつマウスピースから遠ざかる。
(b)下唇を垂直に離す。つまり、下唇がリードの先端方向に移動することなく、真下に離れるようにマウスピースから遠ざかる。
By the way, it is known that there are the following two types of movements of the lower lip when the performer moves his / her mouth away from the mouthpiece, for example, to stop sound generation.
(A) Release the lower lip while pulling the mouthpiece. That is, the lower lip moves away from the mouthpiece while moving toward the tip of the lead.
(B) The lower lip is released vertically. In other words, the lower lip moves away from the mouthpiece so as to leave directly below without moving toward the tip of the lead.

そして、演奏者は上記(a)の動作をすることが多い。この動作はリップ・ポジションの移動を伴うので、上述のように、リップ・ポジションに応じて音に付与されるエフェクトが変化するように構成されていると、上記(a)の動作は付与されるエフェクトに演奏者の意図しない変化を生じさせることになる。このようなエフェクトの発生は、演奏が弱い音又は減衰音で終了するときには影響が少なくあまり問題とならないが、演奏の最後に強い音又は持続音が発音される場合には、このエフェクトの変化が耳障りな音として大きく目立ってしまう。   The performer often performs the above operation (a). Since this operation is accompanied by movement of the lip position, as described above, if the effect applied to the sound changes according to the lip position, the operation (a) is given. The effect will cause the player's unintended changes. The occurrence of such an effect has little effect when the performance ends with a weak sound or a decaying sound, and is not a problem. However, if a strong sound or a continuous sound is produced at the end of the performance, the change in this effect is It will stand out as a harsh sound.

本発明は、このような事情に鑑みなされたものであり、リップ・ポジションに応じて変化するエフェクトによって演奏者の意図しない耳障りな音が発生することを防止することのできる電子楽器、電子楽器の制御方法、及び電子楽器のプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an electronic musical instrument and an electronic musical instrument that can prevent an unpleasant sound unintended by the performer from being generated by an effect that changes in accordance with the lip position. It is an object to provide a control method and a program for an electronic musical instrument.

上記目的を達成するために、本発明は、以下の構成により把握される。
(1)本発明の楽音制御装置は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実行する処理部を有する。
In order to achieve the above object, the present invention is grasped by the following configuration.
(1) The musical tone control apparatus according to the present invention includes a position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead; A musical sound control process for controlling a musical sound generated by a sound source unit corresponding to the contact position determined in the position determination process, and an operation for moving the lip away from the lead based on the sensor information. When it is determined that the lip separation form is the first form based on the detection process and the sensor information, at least the lip separation operation from the lead is completed from the first timing. And a process of setting the contact position at the first timing as the actual contact position of the lip until the second timing. With a processing unit.

(2)本発明の電子楽器は、音高を決めるために操作される複数のキーと、リップの接触状態を検知するリップ検出センサを備えるリードと、楽音を生成する音源部と、上記(1)の構成を有する楽音制御装置と、を備える。 (2) An electronic musical instrument of the present invention includes a plurality of keys operated to determine a pitch, a lead including a lip detection sensor that detects a lip contact state, a sound source unit that generates a musical sound, and the above (1 And a musical tone control device having a configuration of

(3)本発明の楽音制御装置の制御方法は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、を含む。 (3) The control method of the musical tone control device of the present invention includes a step of determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead; A step of controlling a musical sound generated by a sound source unit corresponding to the determined contact position, and a step of detecting that the lip starts to move away from the lead based on the sensor information; Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. And setting the contact position at the first timing as the actual contact position of the lip.

(4)本発明の楽音制御装置のプログラムは、楽音制御装置の処理部に、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、を実現する。 (4) The program of the musical tone control device according to the present invention is a program for contacting the lip on the lead based on sensor information from a lip detection sensor that detects a lip contact state on the lead. Based on a position determination process for determining a position, a tone control process for controlling a tone generated by a sound source unit corresponding to the contact position determined in the position determination process, and the sensor information, the lip is When it is determined that the lip separation form is the first form based on the detection process for detecting the start of the movement away from the lead and the sensor information, at least the first timing Until the second timing when the lip completes the operation of moving away from the lead, the contact position at the first timing is determined as the actual contact of the lip. Implementing a process of setting the position.

本発明によれば、リードから下唇を離す動作を行ったときに、リップ・ポジションに応じて付与の形態が変化するエフェクトによって演奏者の意図しない音が発生することを防止することができる。   According to the present invention, when an operation of separating the lower lip from the lead is performed, it is possible to prevent a sound unintended by the performer from being generated by an effect that changes the form of application according to the lip position.

(a)は本発明の実施形態に係る電子楽器の平面図、(b)は電子楽器の側面図である。(A) is a top view of the electronic musical instrument which concerns on embodiment of this invention, (b) is a side view of an electronic musical instrument. 電子楽器の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an electronic musical instrument. (a)はマウスピースを示す断面図、(b)はマウスピースを示す下面図である。(A) is sectional drawing which shows a mouthpiece, (b) is a bottom view which shows a mouthpiece. 演奏者の口腔とマウスピースとの接触状態を示す図である。It is a figure which shows the contact state of a player's oral cavity and a mouthpiece. リード上のセンシング部を模式的に示す図である。It is a figure which shows typically the sensing part on a lead | read | reed. (a)はマウスピースを引っ張りながら離した場合のリード上の位置毎のセンサ値、センサ値合計、及び重心における時間推移の一例を示す表、(b)は下唇をマウスピースから垂直に離した場合の、図6(a)と同様の表である。(A) is a table showing an example of the sensor value for each position on the lead when the mouthpiece is pulled away, the total of the sensor values, and the time transition at the center of gravity, and (b) is the vertical separation of the lower lip from the mouthpiece. It is the table | surface similar to Fig.6 (a) at the time of doing. (a)は図6(a)における位置毎のセンサ値の時間推移を示すグラフ、(b)は図6(b)における位置毎のセンサ値の時間推移を示すグラフである。(A) is a graph which shows the time transition of the sensor value for every position in Fig.6 (a), (b) is a graph which shows the time transition of the sensor value for every position in FIG.6 (b). (a)は図6(a)における重心位置とセンサ値合計との関係を示すグラフ、(b)は図6(b)における重心位置とセンサ値合計との関係を示すグラフである。(A) is a graph which shows the relationship between the gravity center position and sensor value total in FIG. 6 (a), (b) is a graph which shows the relationship between the gravity center position and sensor value total in FIG.6 (b). メインルーチンを示すフローチャートである。It is a flowchart which shows a main routine. 下唇位置/舌検出部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a lower lip position / tongue detection part.

以下、添付図面を参照して、本発明に係る実施形態を説明する。本実施形態に係る電子楽器は、リードを用いる木管楽器であるアコースティック管楽器の奏法(例えば、ピッチベンドやビブラート)に応じて演奏を表現する電子楽器である。ここでは、電子楽器がサクソフォンである例を説明する。もっとも、本発明はこれに限定されるものではなく、クラリネット等、他の管楽器を模した電子楽器に適用してもよい。なお、実施形態の説明の全体を通して同じ要素には同じ符号を付している。   Embodiments according to the present invention will be described below with reference to the accompanying drawings. The electronic musical instrument according to the present embodiment is an electronic musical instrument that represents a performance in accordance with a performance method (for example, pitch bend or vibrato) of an acoustic wind instrument that is a woodwind instrument using a lead. Here, an example in which the electronic musical instrument is a saxophone will be described. However, the present invention is not limited to this, and may be applied to an electronic musical instrument imitating other wind instruments such as a clarinet. In addition, the same code | symbol is attached | subjected to the same element through the whole description of embodiment.

[電子楽器の構成]
(電子楽器の基本構成)
図1を参照して、本実施形態に係る電子楽器の基本構成を説明する。図1(a)は電子楽器の平面図であり、図1(b)は電子楽器の側面図である。図1(a)、(b)に示すように、電子楽器100は、アコースティック管楽器であるサクソフォンを模した外形を有し、管体部100aと、操作子1と、サウンドシステム9と、マウスピース10と、を備える。
管体部100aは、サクソフォンの管体部を模した形状を有する本体の筐体部である。
[Configuration of electronic musical instrument]
(Basic configuration of electronic musical instrument)
A basic configuration of the electronic musical instrument according to the present embodiment will be described with reference to FIG. FIG. 1A is a plan view of the electronic musical instrument, and FIG. 1B is a side view of the electronic musical instrument. As shown in FIGS. 1A and 1B, an electronic musical instrument 100 has an external shape imitating a saxophone that is an acoustic wind instrument, and includes a tubular body 100a, an operator 1, a sound system 9, and a mouthpiece. 10.
The tube part 100a is a housing part of a main body having a shape simulating a tube part of a saxophone.

操作子1は、管体部100a上に配置され、演奏者P(ユーザ)が指で操作する操作部である。操作子1は、音高を決定する演奏キー、楽曲のキーに合わせて音高を変える機能、音高の微調整を行う機能等を設定する設定キーを含み、演奏者Pからキー操作を受け付けて操作情報を後述のCPU5に出力する。   The operation element 1 is an operation unit that is arranged on the tube unit 100a and is operated by a player P (user) with a finger. The operation element 1 includes a performance key for determining the pitch, a setting key for setting a function for changing the pitch according to the key of the music, a function for finely adjusting the pitch, and the like. The operation information is output to the CPU 5 described later.

マウスピース10は、管体部100aに接続されるとともに、演奏者Pが口腔で操作する。マウスピース10には、追って詳述するように、リード11が取り付けられる。   The mouthpiece 10 is connected to the tube part 100a, and the player P operates with the oral cavity. A lead 11 is attached to the mouthpiece 10 as will be described in detail later.

サウンドシステム9は、スピーカ等を有し、楽音出力を行う。より具体的には、サウンドシステム9は、音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカから楽音として出力する。   The sound system 9 has a speaker or the like and outputs a musical sound. More specifically, the sound system 9 performs signal amplification or the like on the musical tone signal input from the sound source unit 8 and outputs the musical tone as a musical tone from a built-in speaker.

また、図1(a)に一部透視部分として示すように、管体部100aに内蔵された基板上に、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源部8が設けられている。CPU5は、全体的な処理を行う部分であり、以下で説明される各種の動作(処理)を実行する楽音制御装置を構成し、その楽音制御装置の処理部として機能する。   Further, as shown in FIG. 1A as a partially transparent portion, a breath pressure detector 2, a CPU (Central Processing Unit) 5 as a control means, a ROM (Read) on a substrate built in the tubular body 100a. Only memory (RAM) 6, RAM (Random Access Memory) 7, and sound source unit 8 are provided. The CPU 5 is a part that performs overall processing, configures a musical sound control device that executes various operations (processing) described below, and functions as a processing unit of the musical sound control device.

息圧検出部2は、演奏者Pからマウスピース10に吹き込まれた息の圧力(息圧)を検出し、息圧情報をCPU5に出力するセンサである。音源部8は、楽音を生成する回路であり、音源部8の出力に応じてサウンドシステム9は動作する。CPU5、ROM6、RAM7については後述する。   The breath pressure detection unit 2 is a sensor that detects the pressure (breath pressure) of the breath blown into the mouthpiece 10 from the player P and outputs the breath pressure information to the CPU 5. The sound source unit 8 is a circuit that generates musical sounds, and the sound system 9 operates according to the output of the sound source unit 8. The CPU 5, ROM 6 and RAM 7 will be described later.

(電子楽器の機能構成)
図2を参照して、電子楽器100の機能構成を説明する。図2は、電子楽器100の機能構成を示すブロック図である。図2に示すように、電子楽器100は、上述した操作子1と、上述した息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、上述した音源部8と、上述したサウンドシステム9と、を備える。サウンドシステム9を除く電子楽器100の上記各部は、バス9aを介して互いに接続されている。
(Functional configuration of electronic musical instrument)
A functional configuration of the electronic musical instrument 100 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the electronic musical instrument 100. As shown in FIG. 2, the electronic musical instrument 100 includes the above-described operating element 1, the above-described breath pressure detecting unit 2, the lip detecting unit 3, the tongue detecting unit 4, the CPU 5, the ROM 6, the RAM 7, and the above-mentioned. The sound source unit 8 and the sound system 9 described above are provided. The above components of the electronic musical instrument 100 excluding the sound system 9 are connected to each other via a bus 9a.

リップ検出部3(リップ検出センサ)は、リード11に設けられ、演奏者Pのリップ(下唇)Lの接触を検知する静電容量方式のタッチセンサである。リップ検出部3は、タッチセンサにおけるリップLの接触位置及びリップLの接触面積に応じた静電容量を、リップLの検出情報としてCPU5に出力する。リップLの検出情報がCPU5によってどのように利用されるかについては追って述べる。   The lip detection unit 3 (lip detection sensor) is a capacitive touch sensor that is provided on the lead 11 and detects contact of the lip (lower lip) L of the player P. The lip detection unit 3 outputs the capacitance according to the contact position and the contact area of the lip L in the touch sensor to the CPU 5 as detection information of the lip L. How the detection information of the lip L is used by the CPU 5 will be described later.

タン検出部4は、リード11に設けられ、演奏者Pのタン(舌)の接触を検出する静電容量方式のタッチセンサである。タン検出部4は、タッチセンサにおけるタンの接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。   The tongue detection unit 4 is a capacitance type touch sensor that is provided on the lead 11 and detects the contact of the player P with a tongue. The tongue detection unit 4 outputs a capacitance according to the contact area of the tongue in the touch sensor to the CPU 5 as detection information of the tongue.

CPU5は、電子楽器100の各部を制御する制御部である。CPU5は、ROM6から指定されたプログラムを読み出して後述する各種処理を実行する。   The CPU 5 is a control unit that controls each unit of the electronic musical instrument 100. The CPU 5 reads a designated program from the ROM 6 and executes various processes described later.

より具体的には、CPU5は、操作子1から入力された音高情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップLの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源部8に指示する。   More specifically, the CPU 5 includes pitch information input from the operation element 1, breath pressure information input from the breath pressure detection unit 2, detection information of the lip L input from the lip detection unit 3, and Based on the tongue detection information input from the tongue detector 4, the tone generator 8 is instructed to generate a musical tone.

例えば、CPU5は、操作子1から入力された音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する。更に、CPU5は、リップ検出部3から入力されたリップLの検出情報に応じて、発生する楽音に付与されるエフェクトを制御する。CPU5はまた、タン検出部4から入力されたタン(舌)の接触の検出情報に基づいて、タンギング音の発生形態を設定する。   For example, the CPU 5 sets the pitch of the musical sound based on the pitch information input from the operation element 1. Further, the CPU 5 sets the sound volume based on the breath pressure information input from the breath pressure detector 2. Further, the CPU 5 controls the effect to be given to the generated musical sound according to the detection information of the lip L input from the lip detection unit 3. The CPU 5 also sets the generation form of the tongue sound based on the contact detection information of the tongue (tongue) input from the tongue detector 4.

CPU5は、これら処理を、処理内容に応じて設定された周期で繰り返し実行する。例えば、CPU5は、操作子1が操作されたか否かを所定の周期で繰り返し判定し、操作子1が操作されたと判定する度に操作に応じた発音処理を行う。その際、CPU5は、リップ検出部3の出力値に基づいて、後述する所定の処理を実行する。   The CPU 5 repeatedly executes these processes at a cycle set according to the processing content. For example, the CPU 5 repeatedly determines whether or not the operation element 1 has been operated at a predetermined cycle, and performs sound generation processing corresponding to the operation every time it is determined that the operation element 1 has been operated. At that time, the CPU 5 executes a predetermined process to be described later based on the output value of the lip detector 3.

ROM6は、各種データ及び各種プログラムを記憶する。RAM7は、処理された各種データを一時的に格納するワークエリアを有する。   The ROM 6 stores various data and various programs. The RAM 7 has a work area for temporarily storing various processed data.

音源部8は、シンセサイザであり、CPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号をサウンドシステム9に出力する。   The sound source unit 8 is a synthesizer, and generates a musical sound and outputs a musical sound signal to the sound system 9 according to a musical sound generation instruction (musical sound control) from the CPU 5.

(マウスピースの詳細)
図3及び図4を参照して、マウスピース10の構成を説明する。図3(a)はマウスピース10を示す断面図であり、(b)はマウスピース10を示す下面図である。図3(a)においては、マウスピース10の軸方向に沿って、開口部13側を「ティップ」とし、管体部100a側を「ヒール」とする。
(Details of mouthpiece)
With reference to FIG.3 and FIG.4, the structure of the mouthpiece 10 is demonstrated. FIG. 3A is a cross-sectional view showing the mouthpiece 10, and FIG. 3B is a bottom view showing the mouthpiece 10. In FIG. 3A, along the axial direction of the mouthpiece 10, the opening 13 side is referred to as “tip”, and the tubular body portion 100 a side is referred to as “heel”.

図3(a)、(b)に示すように、マウスピース10は、マウスピース本体部10aと、リード11と、固定金具12と、を有する。マウスピース本体部10aは、マウスピース10の本体部品であり、演奏者Pが息を吹き込むための開口部13を有する。リード11は、マウスピース本体部10aの下方、つまり、アコースティック管楽器のリード位置に対応して設けられている。固定金具12は、リード11をマウスピース本体部10aに取り付けるための金具である。   As shown in FIGS. 3A and 3B, the mouthpiece 10 includes a mouthpiece body 10 a, a lead 11, and a fixture 12. The mouthpiece main body 10a is a main body part of the mouthpiece 10, and has an opening 13 for the player P to breathe. The lead 11 is provided below the mouthpiece body 10a, that is, corresponding to the lead position of the acoustic wind instrument. The fixture 12 is a fixture for attaching the lead 11 to the mouthpiece body 10a.

図3(b)に示すように、リード11には、複数の電極部40,30〜39が、ティップ側からヒール側に向かって所定の間隔で配置されている。   As shown in FIG. 3B, the lead 11 has a plurality of electrode portions 40, 30 to 39 arranged at predetermined intervals from the tip side toward the heel side.

このうち電極部40は、タン検出部4を構成する静電容量方式のタッチセンサS10のセンシング部である。また、電極部30〜39は、リップ検出部3を構成する静電容量方式のタッチセンサS20〜S29のセンシング部である。本実施形態では、リップ検出部3及びタン検出部4は1つの部品として構成されているが、別個の部品として構成されてもよい。   Among these, the electrode unit 40 is a sensing unit of the capacitive touch sensor S <b> 10 constituting the tongue detection unit 4. The electrode units 30 to 39 are sensing units of the capacitive touch sensors S20 to S29 constituting the lip detection unit 3. In the present embodiment, the lip detection unit 3 and the tongue detection unit 4 are configured as one component, but may be configured as separate components.

上述したマウスピース10が演奏者Pによってどのように操作されるかを、図4を参照して説明する。図4は、演奏者Pの口腔とマウスピース10との接触状態を示す図である。図4に示すように、演奏者Pは、電子楽器100の演奏時に、上側前歯E1をマウスピース本体部10aの上部に当て、下側前歯E2を下側のリップLで巻き込み、リード11に触れる。このようにして、マウスピース10は、上側前歯E1とリップLとで保持される。   How the mouthpiece 10 described above is operated by the player P will be described with reference to FIG. FIG. 4 is a view showing a contact state between the mouth of the player P and the mouthpiece 10. As shown in FIG. 4, when the electronic musical instrument 100 is played, the performer P touches the lead 11 by placing the upper front tooth E <b> 1 on the upper part of the mouthpiece body 10 a, wrapping the lower front tooth E <b> 2 with the lower lip L. . In this way, the mouthpiece 10 is held by the upper front teeth E1 and the lip L.

演奏時における口腔内部のタンは、奏法により、リード11に触れている状態のタンT1(実線)と、リード11に触れていない状態のタンT2(破線)と、のいずれかとなる。ここで、演奏者Pは、通常、楽器の発音を抑制することを意図してタンをリード11に接触させることが知られている。かかる演奏者Pの所作に対応するために、上述したタッチセンサS10は、電極部40に対するタンの接触状態を検出する。例えば、図4において実線で示されるタンT1は、リード11に接触した状態を示し、図4に一点鎖線で示されるタンT2は、リード11から離れた状態を示す。そして、タッチセンサS10は、検出情報をCPU5に対して出力する。   The tongue inside the oral cavity at the time of performance is either a tongue T1 (solid line) in a state where the lead 11 is touched or a tongue T2 (a broken line) where the lead 11 is not touched, depending on the playing style. Here, it is known that the player P usually makes the tongue contact the lead 11 with the intention of suppressing the pronunciation of the musical instrument. In order to correspond to the performance of the player P, the touch sensor S10 described above detects the contact state of the tongue with the electrode unit 40. For example, a tan T1 indicated by a solid line in FIG. 4 indicates a state in contact with the lead 11, and a tan T2 indicated by a one-dot chain line in FIG. Then, the touch sensor S10 outputs detection information to the CPU 5.

また、演奏者Pは、通常、発音時にはリップLをマウスピース10に接触させている。この場合、演奏者Pは、リップLの接触位置及び接触面積(接触圧力)を操作して、音を変化させることがある。このような奏法に対応して、タッチセンサS20〜S29は、電極部30〜39に対するリップLの接触状態を検出する。そして、タッチセンサS20〜S29は、それぞれの検出情報をCPU5に対して出力する。   Further, the player P usually makes the lip L contact the mouthpiece 10 during sound generation. In this case, the player P may change the sound by operating the contact position and the contact area (contact pressure) of the lip L. Corresponding to such a playing method, the touch sensors S20 to S29 detect the contact state of the lip L with respect to the electrode portions 30 to 39. And touch sensor S20-S29 outputs each detection information with respect to CPU5.

CPU5は、タッチセンサS20〜S29から出力される検出情報に応じて、追って詳しく述べるように、リード11におけるリップLの接触位置(重心位置)を算出する。また、CPU5は、タッチセンサS10から出力される検出情報に基づいて、タンの接触状態(T1,T2)を判断する。   The CPU 5 calculates the contact position (center of gravity position) of the lip L on the lead 11 according to detection information output from the touch sensors S20 to S29, as will be described in detail later. Further, the CPU 5 determines the contact state (T1, T2) of the tongue based on the detection information output from the touch sensor S10.

なお、リップ検出部3及びタン検出部4を構成するタッチセンサ及び電極部の数量、配置、形状は、仕様に応じて任意に設定されうる。   In addition, the quantity, arrangement, and shape of the touch sensor and the electrode unit constituting the lip detection unit 3 and the tongue detection unit 4 can be arbitrarily set according to the specification.

(リップのリードへの接触位置)
上記のような構成を有するリップ検出部3では、リップLは、多くの場合、複数の電極部に亘って接触することになる。そのときのリップLの接触位置を1点に定めるために、本実施形態では、リップLのリード11上の重心位置を算出することとしている。そこで、図5を参照して、リップLのリード11への重心位置を算出する手法を説明する。
(Contact position of lip to lead)
In the lip detection unit 3 having the above-described configuration, the lip L often contacts over a plurality of electrode units. In this embodiment, the position of the center of gravity of the lip L on the lead 11 is calculated in order to determine the contact position of the lip L as one point. A method for calculating the position of the center of gravity of the lip L on the lead 11 will be described with reference to FIG.

図3(b)を参照して説明したように、複数の矩形状の電極部40,30〜39は、リード11の延在方向ないし長手方向に沿って整列している。演奏者P側の一端に、タン検出部4を構成するタッチセンサS10の電極部40が配置され、この電極部40に隣り合うように、リップ検出部3を構成するタッチセンサS20〜S29の電極部30〜39が、反対側の端部に向かって等間隔で配列されている。図5は、リード11上の電極部40,30〜39を模式的に示した図であり、図5では、以後の説明がわかり易いようにするために、電極部30〜39の位置を、電極部40側からP1〜P10で表し、それぞれ番号「1」〜「10」を付与している。   As described with reference to FIG. 3B, the plurality of rectangular electrode portions 40 and 30 to 39 are aligned along the extending direction or the longitudinal direction of the lead 11. The electrode part 40 of the touch sensor S10 that constitutes the tongue detection unit 4 is arranged at one end on the player P side, and the electrodes of the touch sensors S20 to S29 that constitute the lip detection part 3 so as to be adjacent to the electrode part 40. The parts 30 to 39 are arranged at equal intervals toward the opposite end. FIG. 5 is a diagram schematically showing the electrode portions 40 and 30 to 39 on the lead 11. In FIG. 5, the positions of the electrode portions 30 to 39 are shown as electrodes in order to make the following explanation easy to understand. It represents by P1-P10 from the part 40 side, and number "1"-"10" are provided, respectively.

そして、リップLのリード11への接触位置(重心位置xG)は、タッチセンサS20〜S29の出力値miと電極部30〜39の位置xiとを用いて、次式で算出することが出来る。

Figure 2017173651
ここで、nはタッチセンサの数である。
なお、この式は一般に重心位置を算出するときに用いられる式である。 And the contact position (gravity center position xG) of the lip L to the lead 11 can be calculated by the following equation using the output values mi of the touch sensors S20 to S29 and the positions xi of the electrode portions 30 to 39.
Figure 2017173651
Here, n is the number of touch sensors.
This equation is generally used when calculating the position of the center of gravity.

例えば、位置「P1」から「P10」に対応するタッチセンサS20〜S29の出力値がそれぞれ0,0,0,0,90,120,150,120,90,0,0である場合、リップLの重心位置xGは、

Figure 2017173651
と算出される。 For example, when the output values of the touch sensors S20 to S29 corresponding to the positions “P1” to “P10” are 0, 0, 0, 0, 90, 120, 150, 120, 90, 0, 0, the lip L The center of gravity position xG of
Figure 2017173651
Is calculated.

本実施形態では、リップLの重心位置を、0から127までの整数値(7ビットの2進数)で表現した重心値で表わすこととしている。この重心値を得るためには、上述した重心位置xGを10で除して127を乗ずればよい。   In the present embodiment, the centroid position of the lip L is represented by a centroid value expressed by an integer value (7-bit binary number) from 0 to 127. In order to obtain the centroid value, the centroid position xG described above may be divided by 10 and multiplied by 127.

(センサ値合計と重心値に基づく下唇のマウスピースからの離し方の区別)
ここで、図6から図8を参照して、タッチセンサS20〜S29の出力値の合計及びリップLの重心値に基づいて、リップLの下唇のマウスピース10からの離す動作の形態を判別する手法の一例を説明する。
(Distinction of how to separate the lower lip from the mouthpiece based on the total sensor value and the center of gravity)
Here, with reference to FIG. 6 to FIG. 8, the mode of the separation operation of the lower lip L from the mouthpiece 10 is determined based on the total output values of the touch sensors S20 to S29 and the centroid value of the lip L. An example of the technique to perform is demonstrated.

図6(a)は、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した場合のリード11上の位置「P1」から「P10」毎のセンサ値(センサ情報)、センサ値合計(センサ情報の値の合計値)、及び重心値における、時刻t1からt5までの時間推移の一例を示す表である。図6(b)は、リップLの下唇をマウスピース10から垂直に離す動作を開始した場合の、図6(a)と同様の表である。   FIG. 6A shows the sensor values (sensor information) for each of “P10” from the position “P1” on the lead 11 when the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started, and the total of the sensor values. It is a table | surface which shows an example of the time transition from the time t1 to t5 in (total value of the value of sensor information) and a gravity center value. FIG. 6B is a table similar to FIG. 6A when the operation of vertically releasing the lower lip of the lip L from the mouthpiece 10 is started.

ここで、センサ値は0から255までの整数であり、したがって、10個のセンサ値の合計は0から2550までの値を取る。また、重心値は、上述したように0から127までの整数で表現されている。また、本実施形態では、図6(a)における時刻t4、及び図6(b)における時刻t3におけるセンサ値及びセンサ値合計は小さな値であり、このような値から算出された重心値は、実態を正確に表していないおそれがあるため、図6(a)及び(b)ではノイズとして処理されている。   Here, the sensor value is an integer from 0 to 255, and therefore the sum of the 10 sensor values takes a value from 0 to 2550. Further, the centroid value is expressed by an integer from 0 to 127 as described above. In this embodiment, the sensor value and the sensor value total at time t4 in FIG. 6A and time t3 in FIG. 6B are small values, and the centroid value calculated from these values is Since there is a possibility that the actual state is not accurately represented, in FIGS. 6A and 6B, it is processed as noise.

図6(a)と図6(b)に共通する傾向は、位置毎のセンサ値及びセンサ値合計が時間の経過とともに減少していることである。この傾向を検出することで、リップLをマウスピース10から離す動作を開始したことを判定することができる。   The tendency common to FIG. 6A and FIG. 6B is that the sensor value and the sensor value total for each position decrease with the passage of time. By detecting this tendency, it can be determined that the operation of separating the lip L from the mouthpiece 10 has started.

他方、図6(b)では、センサ値のピークは各時刻においてほぼ位置P7に保持されているのに対して、図6(a)では、センサ値のピークは、時刻t1では位置P7、時刻t2では位置P6、時刻t3では位置P5のように遷移している。同様に、図6(b)では、重心値は、時刻t1において「74」、時刻t2において「73」のように実質的に変動しないのに対して、図6(a)では、重心値は、時刻t1において「74」、時刻t2において「69」、時刻t3において「59」のように、リード11のティップ側の方に移動している。このような重心値の変化の相違があることは、リップLの2種類の離し方の動作を区別するうえで有効であると考えられる。以下、図7及び図8で図解する。   On the other hand, in FIG. 6B, the peak of the sensor value is held at almost the position P7 at each time, whereas in FIG. 6A, the peak of the sensor value is at the position P7 at time t1. The transition is at position P6 at t2 and at position P5 at time t3. Similarly, in FIG. 6B, the centroid value does not substantially change like “74” at time t1 and “73” at time t2, whereas in FIG. 6A, the centroid value is The lead 11 has moved to the tip side like “74” at time t1, “69” at time t2, and “59” at time t3. It is considered that such a difference in the change in the center of gravity value is effective in distinguishing the two types of movement of the lip L. This is illustrated in FIGS. 7 and 8 below.

図7(a)は、図6(a)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフであり、図7(b)は、図6(b)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフである。位置Pを横軸に、センサ値を縦軸に取って、時刻t1からt4(又はt3)までの位置毎のセンサ値を比較している。これらグラフからも、リップLの離し方の動作の違いによる、センサ値の減少量及びピーク位置の違いが把握される。   FIG. 7A is a graph showing the time transition of the sensor value for each of the positions “P1” to “P10” in FIG. 6A, and FIG. 7B is the position “P1” in FIG. It is a graph which shows the time transition of the sensor value for every "P10". Taking the position P on the horizontal axis and the sensor value on the vertical axis, the sensor values for each position from time t1 to t4 (or t3) are compared. Also from these graphs, the difference in the sensor value decrease amount and the peak position due to the difference in the movement of the lip L can be grasped.

図8(a)は、図6(a)における重心値とセンサ値合計との関係を示すグラフであり、図8(b)は、図6(b)に対応する図8(a)と同様のグラフである。図8(a)及び(b)では、時刻tを横軸に、重心値及びセンサ値合計を第1及び第2の縦軸に取っている。   FIG. 8A is a graph showing the relationship between the centroid value and the total sensor value in FIG. 6A, and FIG. 8B is the same as FIG. 8A corresponding to FIG. It is a graph of. 8A and 8B, time t is taken on the horizontal axis, and the center of gravity value and the sensor value total are taken on the first and second vertical axes.

図8(a)において、時刻t1からt2の間、及び時刻t2からt3の間に、センサ値合計はそれぞれD11及びD12だけ減少している。また、図8(b)において、時刻t1からt2の間にセンサ値合計はD13だけ減少している。したがって、前回(例えば時刻t1)のセンサ値合計と今回(例えば時刻t2)のセンサ値合計との間の減少量を検出することで、演奏者PがリップLの下唇をマウスピース10から離す動作を開始した第1のタイミングであることを把握することができる。本実施形態では、処理部として機能するCPU5は、前回のセンサ値合計と今回のセンサ値合計との間の減少量が所定量(閾値)以上であると、リップLの下唇がリード11から離れ始める第1のタイミングであると判定するようになっている。   In FIG. 8A, the total sensor values are decreased by D11 and D12, respectively, from time t1 to t2 and from time t2 to t3. Further, in FIG. 8B, the total sensor value decreases by D13 from time t1 to time t2. Therefore, the player P releases the lower lip of the lip L from the mouthpiece 10 by detecting the amount of decrease between the previous sensor value total (for example, time t1) and the current sensor value total (for example, time t2). It can be understood that it is the first timing when the operation is started. In the present embodiment, the CPU 5 functioning as a processing unit causes the lower lip of the lip L to be removed from the lead 11 when the amount of decrease between the previous sensor value total and the current sensor value total is equal to or greater than a predetermined amount (threshold). It is determined that it is the first timing at which separation starts.

図8(a)及び(b)では、重心値とセンサ値合計とは異なる種類のデータであり、両者の値を単純に比較することは意味がない。しかしながら、何らかの動作、例えば下唇をリードから離す動作を行った場合に、これら両者の変化の形態が同じ傾向にあるか否かを把握することは可能である。ただし、両者の値のスケールは一致していないため、このままでは両者の変化の形態が同じ傾向にあるか否を単純に判断することはできない。このため、本実施形態においては、少なくとも一方の値のスケールを他方の値のスケールに合わせるように補正することで、両者を対比可能としている。補正の手法は、例えば、所定の値の加減又は乗除である。本実施形態では、例えば、重心値を20倍するか、あるいは、センサ値合計を20分の1(20で除算する)にすることで、重心値とセンサ値合計との変化の形態が同じ傾向にあるか否かを比較可能にしている。なお、倍率は、上述した比較を容易にするように適宜設定されてよい。   In FIGS. 8A and 8B, the centroid value and the total sensor value are different types of data, and it is meaningless to simply compare the values of both. However, it is possible to grasp whether or not the form of change of both of them has the same tendency when some kind of operation, for example, an operation of separating the lower lip from the lead is performed. However, since the scales of the two values do not match, it is not possible to simply determine whether or not the two changes have the same tendency. For this reason, in the present embodiment, the two values can be compared by correcting so that the scale of at least one value matches the scale of the other value. The correction method is, for example, addition / subtraction or multiplication / division of a predetermined value. In this embodiment, for example, the centroid value is multiplied by 20 or the total sensor value is reduced to 1/20 (divided by 20), so that the form of change between the centroid value and the total sensor value tends to be the same. It is possible to compare whether or not. Note that the magnification may be set as appropriate to facilitate the above-described comparison.

そこで、時刻ごとに補正後の重心値とセンサ値合計とを比較すると、図8(a)では、時刻t2においてD21の差があり、時刻t3においてはD22の差がある。同様に、図8(b)では、時刻t2においてD23の差がある。また、D23>D21,D22であるから、補正後の重心値とセンサ値合計との差を時刻ごとに判定することで、2種類のリップLの下唇の離し方の動作の形態を区別することができる。つまり、かかる差が所定の閾値より小さいと、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態と判定し、また、かかる差が閾値より大きいと、リップLの下唇をマウスピース10から垂直に離す動作を開始したと判別すればよい。   Therefore, comparing the corrected gravity center value and the total sensor value for each time, in FIG. 8A, there is a difference of D21 at time t2, and there is a difference of D22 at time t3. Similarly, in FIG. 8B, there is a difference of D23 at time t2. Further, since D23> D21 and D22, the operation mode of separating the lower lip of the two types of lips L is distinguished by determining the difference between the corrected gravity center value and the total sensor value for each time. be able to. That is, when the difference is smaller than a predetermined threshold value, it is determined as the first form in which the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started, and when the difference is larger than the threshold value, What is necessary is just to discriminate | determine that the operation | movement which releases | separates a lower lip from the mouthpiece 10 perpendicularly was started.

[電子楽器の動作]
図9及び図10を参照して、上述した構成を有する電子楽器100の動作を説明する。図9は、メインルーチンを示すフローチャートである。図10は、下唇位置/舌検出部の処理の流れを示すフローチャートである。
[Operation of electronic musical instrument]
The operation of the electronic musical instrument 100 having the above-described configuration will be described with reference to FIGS. FIG. 9 is a flowchart showing the main routine. FIG. 10 is a flowchart showing a processing flow of the lower lip position / tongue detection unit.

(メインルーチン)
図9を参照して、電子楽器100の主たる動作、ないし電子楽器100の制御手法を説明する。
(Main routine)
With reference to FIG. 9, the main operation | movement of the electronic musical instrument 100 thru | or the control method of the electronic musical instrument 100 is demonstrated.

電源が入ると、ステップST11においてイニシャライズ処理が行われる。かかる処理は、例えば各種設定の初期化である。   When the power is turned on, an initialization process is performed in step ST11. Such processing is, for example, initialization of various settings.

次いで、ステップST12において、リップ検出部3及びタン検出部4の処理が行われる。このステップは、上述したリップL及びタンのリード11への接触状態に応じた処理であり、追って図10との関係で詳しく述べる。   Next, in step ST12, processing of the lip detection unit 3 and the tongue detection unit 4 is performed. This step is processing according to the contact state of the lip L and tongue with the lead 11 described above, and will be described in detail later in relation to FIG.

そして、ステップST13において、息圧検出部2の処理が行われる。かかるステップは、上述した息吹込みによる息圧の検出処理である。   In step ST13, the processing of the breath pressure detection unit 2 is performed. This step is the above-described breath pressure detection process by breath blowing.

次いで、ステップST14において、キースイッチ処理が行われる。キースイッチ処理では、CPU5は、操作子1の操作情報に応じた楽音の音高を表わすキーコードを発生させ、音源部8に供給する。   Next, key switch processing is performed in step ST14. In the key switch process, the CPU 5 generates a key code representing the pitch of the musical sound according to the operation information of the operator 1 and supplies it to the sound source unit 8.

そして、ステップST15において、発音処理が行われる。かかる処理では、音源部8は、受信したキーコード等に基づいてサウンドシステム9を動作させる。   In step ST15, sound generation processing is performed. In such processing, the sound source unit 8 operates the sound system 9 based on the received key code or the like.

ステップST15の後、ステップST16において、その他必要な処理が行われ、一通りの処理手順が終了し、再び、上述したステップST12からST16が繰り返される。   After step ST15, other necessary processing is performed in step ST16, the entire processing procedure ends, and the above-described steps ST12 to ST16 are repeated again.

(下唇位置/舌検出部の処理)
図10を参照して、上記ステップST12における下唇位置/舌検出部の処理を詳述する。かかる処理は、制御手段としてのCPU5において行われる。
(Process of lower lip position / tongue detection unit)
With reference to FIG. 10, the processing of the lower lip position / tongue detection unit in step ST12 will be described in detail. Such processing is performed in the CPU 5 as control means.

まず、ステップST21において、タッチセンサS20〜S29のそれぞれのセンサ値(出力値)が取得される。   First, in step ST21, sensor values (output values) of the touch sensors S20 to S29 are acquired.

次いで、ステップST22において、センサ値の合計が算出され、前回のセンサ値の合計と比較される。比較の結果、今回(第3のタイミング)のセンサ値合計が前回(第4のタイミング)のセンサ値合計から減少しており、かつ、減少量(例えば、図8(a)及び(b)のD11,D12,D13)が閾値th1より大きいと判定されると、リップLがリード11から離れる動作を開始した第1のタイミングと判断されて、手順はステップST23に進む。他方、今回のセンサ値合計が前回のセンサ値合計から増加ないし同一であったり、減少量が閾値th1以下であったりすると、処理はメインルーチンに戻る。   Next, in step ST22, the total of sensor values is calculated and compared with the previous total of sensor values. As a result of comparison, the current sensor value total (third timing) has decreased from the previous (fourth timing) sensor value total, and the amount of decrease (for example, in FIGS. 8A and 8B). If it is determined that D11, D12, and D13) are greater than the threshold th1, it is determined as the first timing at which the lip L starts to move away from the lead 11, and the procedure proceeds to step ST23. On the other hand, if the current sensor value total increases or is the same as the previous sensor value total, or the decrease amount is equal to or less than the threshold th1, the process returns to the main routine.

ステップST23では、タッチセンサS20〜S29の各センサ値から算出したリップLのリード11上の重心値と、ステップST22において算出したセンサ値合計とについて、所定の補正、つまり両者の値のスケールを一致させる処理を施したうえで、両値の差を取る。   In step ST23, the center of gravity value on the lead 11 of the lip L calculated from the sensor values of the touch sensors S20 to S29 and the sum of the sensor values calculated in step ST22 are matched with each other, that is, the scales of both values coincide. Take the difference between the two values.

そして、ステップST24において、かかる差(例えば、図8(a)及び(b)のD21,D22,D23)が閾値th2と比較される。比較の結果、当該差が閾値th2以下であると判定されると、処理はステップST25に進む。他方、当該差が閾値th2より大きいと判定されると、処理はステップST27に進む。   In step ST24, the difference (for example, D21, D22, D23 in FIGS. 8A and 8B) is compared with the threshold th2. As a result of the comparison, if it is determined that the difference is equal to or less than the threshold th2, the process proceeds to step ST25. On the other hand, if it is determined that the difference is greater than the threshold th2, the process proceeds to step ST27.

ステップST25では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態を示すフラグ(例えば「0」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、このフラグが「0」が入力されていると判断すると、例えばこの下唇がマウスピース10から徐々に離れるにあわせて発生している楽音の音量が徐々に低下するような処理を行う。   In step ST25, a flag (for example, “0”) indicating the first form in which the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started is recorded in the ROM 6. When the CPU 5 checks the flag in step ST14 or ST15 described above and determines that “0” is input, for example, the lower lip is generated as the mouthpiece 10 gradually moves away. Processing is performed so that the tone volume gradually decreases.

そして、ステップST26において、リップ・ポジションつまりリップLのリード11上の重心値を今回の値に固定する。このようなリップ・ポジションの固定は、リップLの下唇が一度リード11から離れた後、リード11に再び接触したと判定されるまで維持される。つまり、リップLがリード11から離れる動作を開始した第1のタイミングから、少なくともリップLがリード11から離れる動作を完了する第2のタイミングまでの間、第1のタイミングでのリード11に対するリップLの接触位置を、実際のリップLの接触位置として設定(固定)する。かかる処理により、マウスピース10を引っ張りながらリップLの下唇を離す動作を行ったとしても、発生中の楽音に対して、演奏者Pの意図しないエフェクトの変化が生じることを抑止することが可能となる。   In step ST26, the lip position, that is, the center of gravity value of the lip L on the lead 11 is fixed to the current value. Such fixing of the lip position is maintained until it is determined that the lower lip of the lip L has once separated from the lead 11 and then contacted the lead 11 again. That is, the lip L with respect to the lead 11 at the first timing is from the first timing at which the lip L starts to move away from the lead 11 to the second timing at least when the lip L completes the movement away from the lead 11. Is set (fixed) as the actual lip L contact position. With this process, even if the lower lip of the lip L is released while the mouthpiece 10 is pulled, it is possible to prevent the player P from unintentionally changing the effect on the generated musical sound. It becomes.

なお、ここで言う「リップLの下唇がリード11に再び接触したと判定されるまで」とは、物理的に下唇がリード11から離れて、再度、接触することを意味するものではなく、あくまでも、タッチセンサS20〜S29からの出力に基づいて、例えば、前回のセンサ値合計と比較して、今回のセンサ値合計がある程度以上増加しているという状態によって判断される。   Here, “until it is determined that the lower lip of the lip L has come into contact with the lead 11 again” does not mean that the lower lip physically leaves the lead 11 and comes into contact again. However, it is determined based on the output from the touch sensors S20 to S29, for example, based on a state in which the current sensor value total has increased to some extent as compared to the previous sensor value total.

他方、ステップST27では、リップLの下唇をマウスピース10から垂直に離す動作を開始したことを示すフラグ(例えば「1」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、「1」が入力されていると判断すると、下唇をマウスピース10から垂直に離すタイミングに合わせて発音している楽音の音量を急激に低下させる処理を行う。   On the other hand, in step ST27, a flag (for example, “1”) indicating that the operation of vertically releasing the lower lip of the lip L from the mouthpiece 10 is recorded in the ROM 6. When the CPU 5 checks the flag in step ST14 or ST15 described above and determines that “1” is input, the CPU 5 determines the volume of the musical sound that is generated in accordance with the timing of releasing the lower lip vertically from the mouthpiece 10. A process of rapidly decreasing is performed.

このようにして一連の手順が終了すると、処理はメインルーチンに戻る。なお、リップLをリード11から離す際に発生するエフェクトを意図的に利用する演奏者Pのために、上述した重心値とセンサ値合計との関係に応じた処理を行わないようにする設定を設けてもよい。   When a series of procedures is thus completed, the process returns to the main routine. For the player P who intentionally uses the effect generated when the lip L is separated from the lead 11, a setting is made so as not to perform the processing according to the relationship between the center of gravity value and the total sensor value. It may be provided.

このように、本実施形態では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始したことを検出すると、リップ・ポジションを固定する。したがって、かかる下唇の動きによって生じ得る、演奏者Pの意図しないエフェクト(例えばエコーやワウワウエフェクト等)の変化を防止することができる。   As described above, in this embodiment, when it is detected that the operation of releasing the lower lip of the lip L while starting to pull the mouthpiece 10 is started, the lip position is fixed. Therefore, it is possible to prevent a change in an effect (for example, an echo or a wah-wah effect) unintended by the player P, which can be caused by the movement of the lower lip.

以上、具体的な実施形態に基づいて本発明の電子楽器について説明してきたが、本発明は、上記の具体的な実施形態に限定されるものではない。
上記では、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置及びセンサ情報の値の合計値を用いて重心位置(重心値)と合計値との間の差の変化として、その変化が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定していた。
As mentioned above, although the electronic musical instrument of the present invention has been described based on the specific embodiment, the present invention is not limited to the above specific embodiment.
In the above, the difference between the centroid position (centroid value) and the total value is calculated using the total value of the centroid position and the sensor information value between the current time (third timing) and the previous time (fourth timing). As a change, when the first condition that the change is small is satisfied, it is determined that the first mode starts the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10.

しかし、図8(a)及び(b)を見比べるとわかるように、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)と、そうでない場合(図8(b)参照)では、重心位置(重心値)の変化が小さいか否かという違いとともに、センサ情報の値の合計値(センサ値合計)の変化が小さいか否かという違いがある。   However, as can be seen by comparing FIGS. 8A and 8B, when the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started (see FIG. 8A), and when it is not ( In FIG. 8B, there is a difference in whether or not a change in the total value of sensor information (a total of sensor values) is small, as well as a difference in whether or not a change in a centroid position (a centroid value) is small.

つまり、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)には、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置の変化が小さく、且つ、センサ情報の値の合計値の変化も小さいという傾向があるため、これら重心位置の変化及びセンサ情報の値の合計値の変化の双方が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定してもよい。   In other words, when starting the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 (see FIG. 8A), the interval between the current time (third timing) and the previous time (fourth timing) is used. The first condition that both the change in the centroid position and the change in the total value of the sensor information are small because the change in the centroid position is small and the change in the total value of the sensor information values also tends to be small. When satisfy | filling, you may determine with it being the 1st form which started the operation | movement which releases the lower lip of the lip L, pulling the mouthpiece 10. FIG.

したがって、第3のタイミングにて決定された重心位置及びセンサ情報の値の合計値と第4のタイミングで決定された重心位置及びセンサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判断するようにすればよい。   Therefore, the form of the change between the total value of the centroid position and sensor information value determined at the third timing and the total value of the centroid position and sensor information value determined at the fourth timing is the first. If the above condition is satisfied, it may be determined that the first mode is started to move the lower lip of the lip L while pulling the mouthpiece 10.

このように、本発明は、具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良等が含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。   As described above, the present invention is not limited to a specific embodiment, and the technical scope of the present invention includes various modifications and improvements within the scope of achieving the object of the present invention. And that will be apparent to those skilled in the art from the claims.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
<請求項2>
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
<請求項3>
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。
<請求項4>
前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値が、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値より、第1の値未満であることを検知した場合、前記リップが前記リード上から離れる動作の開始を検知することを特徴とする請求項3に記載の楽音制御装置。
<請求項5>
前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
<請求項6>
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。
<請求項7>
音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
<請求項8>
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
<請求項9>
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
A position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead;
A musical sound control process for controlling a musical sound generated by a sound source unit corresponding to the contact position determined in the position determination process;
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead; and
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. A process of setting the contact position at the first timing as the actual contact position of the lip;
A musical tone control apparatus comprising a processing unit for executing
<Claim 2>
The processing unit determines, as the first timing, a timing at which the lip starts to move away from the lead, and determines a timing at which the lip has completed the movement away from the lead as the second timing. Judging as timing,
2. The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Musical tone control device.
<Claim 3>
The musical tone control apparatus according to claim 1, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units.
<Claim 4>
In the detection process, the total value of the sensor information values of each of the sensing units acquired at the third timing is acquired at the fourth timing which is the timing before the third timing. 4. The start of an operation in which the lip moves away from the lead is detected when it is detected that the total value of the sensor information of each part is less than a first value. 5. Musical tone control device.
<Claim 5>
Find the center of gravity position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
Of the change between the total value of the centroid position and the sensor information value determined at the third timing and the total value of the centroid position and the sensor information value determined at the fourth timing. The musical tone control apparatus according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
<Claim 6>
The musical tone control apparatus according to claim 1, wherein the position determination process uses a position of the center of gravity of the contact area of the lip on the lead as the contact position.
<Claim 7>
Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip;
A sound generator for generating musical sounds;
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument characterized by comprising:
<Claim 8>
A control method for a musical sound control device,
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling a musical sound generated by a sound source unit corresponding to the determined contact position;
Detecting that the lip starts to move away from the lead based on the sensor information;
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. Setting the contact position at the first timing as the actual contact position of the lip;
A control method for a musical sound control apparatus comprising:
<Claim 9>
In the processing section of the musical sound control device,
A position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead;
A musical sound control process for controlling a musical sound generated by a sound source unit corresponding to the contact position determined in the position determination process;
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead; and
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. A process of setting the contact position at the first timing as the actual contact position of the lip;
A program of a musical sound control device characterized by realizing the above.

100 電子楽器
100a 管体部
1 操作子
2 息圧検出部
3 リップ検出部
4 タン検出部
5 CPU
6 ROM
7 RAM
8 音源部
9 サウンドシステム
9a バス
10 マウスピース
10a マウスピース本体部
11 リード
12 固定金具
13 開口部
40,30〜39 電極部
E1 上側前歯
E2 下側前歯
L リップ
P 演奏者
S10,S20〜S29 タッチセンサ
DESCRIPTION OF SYMBOLS 100 Electronic musical instrument 100a Tube part 1 Manipulator 2 Breath pressure detection part 3 Lip detection part 4 Tan detection part 5 CPU
6 ROM
7 RAM
8 Sound source 9 Sound system 9a Bus 10 Mouthpiece 10a Mouthpiece body 11 Lead 12 Fixing bracket 13 Opening 40, 30-39 Electrode E1 Upper front tooth E2 Lower front tooth L Lip P Performers S10, S20-S29 Touch sensor

Claims (9)

リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
A position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead;
A musical sound control process for controlling a musical sound generated by a sound source unit corresponding to the contact position determined in the position determination process;
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead; and
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. A process of setting the contact position at the first timing as the actual contact position of the lip;
A musical tone control apparatus comprising a processing unit for executing
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
The processing unit determines, as the first timing, a timing at which the lip starts to move away from the lead, and determines a timing at which the lip has completed the movement away from the lead as the second timing. Judging as timing,
2. The contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Musical tone control device.
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。   The musical tone control apparatus according to claim 1, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units. 前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値が、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値より、第1の値未満であることを検知した場合、前記リップが前記リード上から離れる動作の開始を検知することを特徴とする請求項3に記載の楽音制御装置。   In the detection process, the total value of the sensor information values of each of the sensing units acquired at the third timing is acquired at the fourth timing which is the timing before the third timing. 4. The start of an operation in which the lip moves away from the lead is detected when it is detected that the total value of the sensor information of each part is less than a first value. 5. Musical tone control device. 前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
Find the center of gravity position of the lip on the lead from the value of the sensor information obtained from each of the sensing units,
Of the change between the total value of the centroid position and the sensor information value determined at the third timing and the total value of the centroid position and the sensor information value determined at the fourth timing. The musical tone control apparatus according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。   The musical tone control apparatus according to claim 1, wherein the position determination process uses a position of the center of gravity of the contact area of the lip on the lead as the contact position. 音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
Multiple keys operated to determine the pitch,
A lead having a lip detection sensor for detecting the contact state of the lip;
A sound generator for generating musical sounds;
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument characterized by comprising:
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
A control method for a musical sound control device,
Determining a contact position of the lip on the lead based on sensor information from a lip detection sensor that detects a contact state of the lip on the lead;
Controlling a musical sound generated by a sound source unit corresponding to the determined contact position;
Detecting that the lip starts to move away from the lead based on the sensor information;
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. Setting the contact position at the first timing as the actual contact position of the lip;
A control method for a musical sound control apparatus comprising:
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
In the processing section of the musical sound control device,
A position determination process for determining a contact position of the lip on the lead based on sensor information from a lip detection sensor for detecting a contact state of the lip on the lead;
A musical sound control process for controlling a musical sound generated by a sound source unit corresponding to the contact position determined in the position determination process;
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead; and
Based on the sensor information, when it is determined that the lip separation form is the first form, the period from the first timing to at least the second timing at which the lip completes the operation of separating the lip. A process of setting the contact position at the first timing as the actual contact position of the lip;
A program of a musical sound control device characterized by realizing the above.
JP2016061112A 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program Active JP6724465B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016061112A JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP2020107401A JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061112A JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020107401A Division JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Publications (2)

Publication Number Publication Date
JP2017173651A true JP2017173651A (en) 2017-09-28
JP6724465B2 JP6724465B2 (en) 2020-07-15

Family

ID=59972002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061112A Active JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program

Country Status (1)

Country Link
JP (1) JP6724465B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134665A (en) * 1992-02-03 1993-05-28 Casio Comput Co Ltd Electronic wind instrument
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP2013164542A (en) * 2012-02-13 2013-08-22 Yamaha Corp Electronic wind instrument, vibration control deice and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134665A (en) * 1992-02-03 1993-05-28 Casio Comput Co Ltd Electronic wind instrument
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP2013164542A (en) * 2012-02-13 2013-08-22 Yamaha Corp Electronic wind instrument, vibration control deice and program

Also Published As

Publication number Publication date
JP6724465B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6760222B2 (en) Detection device, electronic musical instrument, detection method and control program
US9299330B2 (en) Apparatus and method to enhance the expressive qualities of digital music
JP6171347B2 (en) Electronic stringed instrument, musical sound generation method and program
WO2015113457A1 (en) Apparatus and method to enhance expressive qualities of digital music
CN107833570A (en) Electronic musical instrument reed and electronic musical instrument
JP2016177026A (en) Electronic musical instrument
JP6825499B2 (en) Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
US11749239B2 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
JP6589413B2 (en) Lead member, mouthpiece and electronic wind instrument
JP6127519B2 (en) Musical sound control device, musical sound control method and program
JP6740967B2 (en) Electronic wind instrument, electronic wind instrument control method, and program for electronic wind instrument
JP6923047B2 (en) Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device
JP6724465B2 (en) Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
CN104240689B (en) Musical sound generating device, electronic musical instrument and tone generation method
JP2019008122A (en) Detector, electronic musical instrument, detection method and control program
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
JP2018045108A (en) Electronic musical instrument, method for controlling the electronic musical instrument, and program for the electronic musical instrument
JP6786982B2 (en) An electronic musical instrument with a reed, how to control the electronic musical instrument, and a program for the electronic musical instrument.
JP6703304B2 (en) Musical tone control device, electronic wind instrument, musical tone control method and program
JP7574583B2 (en) Electronic wind instrument, and control method and program for electronic wind instrument
JP6710432B2 (en) Musical tone control device, electronic musical instrument, musical tone control method and program
JP2017173654A (en) Electronic breath instrument, key operation determination device, control method of electronic musical instrument, and program of electronic musical instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150