[go: up one dir, main page]

JP2017009956A - Data recording device - Google Patents

Data recording device Download PDF

Info

Publication number
JP2017009956A
JP2017009956A JP2015128316A JP2015128316A JP2017009956A JP 2017009956 A JP2017009956 A JP 2017009956A JP 2015128316 A JP2015128316 A JP 2015128316A JP 2015128316 A JP2015128316 A JP 2015128316A JP 2017009956 A JP2017009956 A JP 2017009956A
Authority
JP
Japan
Prior art keywords
data
unit
text
voice
data recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015128316A
Other languages
Japanese (ja)
Inventor
康之 本間
Yasuyuki Honma
康之 本間
陽一郎 桑野
yoichiro Kuwano
陽一郎 桑野
智大 町田
Tomohiro Machida
智大 町田
通代 坪岡
Michiyo Tsubooka
通代 坪岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2015128316A priority Critical patent/JP2017009956A/en
Publication of JP2017009956A publication Critical patent/JP2017009956A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data recording device for facilitating a work to convert a voice into text and the management of data.SOLUTION: A data recording device 10 includes: a storage part 30 in which voiceprint data for reference of a plurality of persons are stored: a microphone part 50 for detecting a voice; an identification part 80 for collating the voiceprint of the voice detected by the microphone part 50 with the voiceprint data for reference of a plurality of persons to identify a coincident speaker; and a text conversion part 90 for converting the voice detected by the microphone part 50 into text, therein text data converted into text are stored so as to be associated with the speaker identified by the identification part 80 in the storage part 30.SELECTED DRAWING: Figure 1

Description

本発明は、音声をテキスト化して記録するデータ記録装置に関する。   The present invention relates to a data recording apparatus for recording voice as text.

病院などの医療現場では、医師や看護師などの医療従事者が複数の患者から聞き取りを行い、録音やメモを取った後、聞き取った内容を電子データに変換して電子カルテに記録することが行われている。   In hospitals and other medical settings, medical staff such as doctors and nurses can listen to multiple patients, record and take notes, and then convert the content heard into electronic data and record it in an electronic medical record. Has been done.

ところで、近年、音声をテキスト化する技術が発達しているため、聞き取った音声を、コンピュータ等による音声処理によりテキスト化して保存することは可能である(例えば、特許文献1を参照)。   By the way, in recent years, since technology for converting speech into text has been developed, it is possible to convert the heard speech into text by speech processing by a computer or the like (see, for example, Patent Document 1).

特開2000−123007号公報JP 2000-123007 A

しかしながら、例えば複数人の患者から連続して聞き取りを行った場合には、患者の名前をメモなどで記録する必要がある。したがって、聞き取り時に手間がかかるとともに、メモを参照しながら聞き取った内容を電子カルテなどに入力する必要があり、作業が煩雑である。 However, for example, when interviews are performed continuously from a plurality of patients, it is necessary to record the patient's name as a memo or the like. Therefore, it takes time and effort to listen, and it is necessary to input the contents heard while referring to the memo to an electronic medical record or the like, which is complicated.

本発明は、上述した課題を解決するためになされたものであり、音声をテキスト化する作業およびデータの管理が容易となるデータ記録装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a data recording apparatus that makes it easy to convert voice into text and manage data.

上記目的を達成する本発明に係るデータ記録装置は、複数人の参照用声紋データが格納される記憶部と、音声を検出するマイク部と、前記マイク部にて検出された音声の声紋を複数人の前記参照用声紋データと照合して合致する話者を識別する識別部と、前記マイク部にて検出された音声をテキスト化するテキスト化部と、を有し、前記識別部にて識別された話者と関連付けて、テキスト化されたテキストデータを記憶部に記憶する。   A data recording apparatus according to the present invention that achieves the above object includes a storage unit that stores voiceprint data for reference of a plurality of people, a microphone unit that detects voice, and a plurality of voiceprints of voice detected by the microphone unit. An identification unit for identifying a matching speaker by collating with the reference voiceprint data of a person, and a text-forming unit for converting the voice detected by the microphone unit into text, the identification unit identifying The text data converted into text is stored in the storage unit in association with the selected speaker.

上記のように構成したデータ記録装置は、マイク部にて検出された音声の声紋を、記憶部に格納された参照用声紋データと照合して話者を識別し、テキスト化したテキストデータを話者に関連付けて記憶できるため、音声をテキスト化する作業およびデータの管理が容易となる。   The data recording apparatus configured as described above compares the voice voice print detected by the microphone unit with the reference voice print data stored in the storage unit, identifies the speaker, and converts the text data into text. Since it can be stored in association with a person, it is easy to manage voice management and data.

実施形態に係るデータ記録装置を示すブロック図である。It is a block diagram which shows the data recording device which concerns on embodiment. 実施形態に係るデータ記録装置を示す平面図である。It is a top view which shows the data recording device which concerns on embodiment. データ記録装置を拡大して示す正面図である。It is a front view which expands and shows a data recording device. データ記録装置を拡大して示す側面図である。It is a side view which expands and shows a data recording device. データ記録装置を拡大して示す背面図である。It is a rear view which expands and shows a data recording device. データ記録装置をケーブルによりコンピュータへ接続した状態を示す正面図である。It is a front view which shows the state which connected the data recording device to the computer with the cable. 実施形態に係るデータ記録装置の制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the data recording device which concerns on embodiment. データ記録装置の使用例を説明するための概略図である。It is the schematic for demonstrating the usage example of a data recording device. データ記録装置の使用例を説明するための拡大概略図である。It is an expansion schematic for demonstrating the usage example of a data recording device. データ記録装置の変形例を示す側面図である。It is a side view which shows the modification of a data recording device.

以下、図面を参照して、本発明の実施の形態を説明する。なお、図面の寸法比率は、説明の都合上、誇張されて実際の比率とは異なる場合がある。   Embodiments of the present invention will be described below with reference to the drawings. In addition, the dimension ratio of drawing is exaggerated on account of description, and may differ from an actual ratio.

本発明の実施形態に係るデータ記録装置10は、話者を自動で特定しつつ音声データをテキストデータに変換して記録する装置である。データ記録装置10は、例えば、医師や看護師などの医療従事者が、老人性難聴の患者から聞き取りを行う際に使用でき、自動で話者を特定しつつ音声データをテキストデータに変換し、電子カルテへのデータ入力を容易とすることができる。   A data recording apparatus 10 according to an embodiment of the present invention is an apparatus that converts voice data into text data and records it while automatically identifying a speaker. The data recording device 10 can be used when, for example, a medical worker such as a doctor or a nurse listens to a patient with presbycusis, converts voice data into text data while automatically identifying a speaker, Data input to the electronic medical record can be facilitated.

データ記録装置10は、図1〜5に示すように、声紋等が格納される記憶部30と、制御部40と、集音するマイク部50と、集音された音声の声紋から話者を識別する識別部80と、音声データをテキストデータに変換するテキスト化部90とを備えている。データ記録装置10は、さらに、音声を処理する音声処理部60と、患者へ音を伝える骨伝導スピーカ部70と、患者の骨から音を集音する骨伝導マイク部100と、各種操作を行うための操作部110と、第1スイッチ部120と、通信ケーブル310のコネクタ311を接続可能な接続部140と、これらを収容する筐体20と、ストラップ130とを備えている。   As shown in FIGS. 1 to 5, the data recording device 10 selects a speaker from a voice print of a collected voice, a storage unit 30 in which a voice print or the like is stored, a control unit 40, a microphone unit 50 that collects sound, and the like. An identification unit 80 for identifying and a text unit 90 for converting voice data into text data are provided. The data recording apparatus 10 further performs various operations with the audio processing unit 60 that processes audio, the bone conduction speaker unit 70 that transmits sound to the patient, and the bone conduction microphone unit 100 that collects sound from the bone of the patient. The operation part 110 for this, the 1st switch part 120, the connection part 140 which can connect the connector 311 of the communication cable 310, the housing | casing 20 which accommodates these, and the strap 130 are provided.

筐体20は、骨伝導スピーカ部70や骨伝導マイク部100が配置されて皮膚に押し付けられる接触面23と、接触面23と反対面であって操作部110等が配置される操作面24とが形成される。接触面23と操作面24の間の側面には、操作者が把持しやすいように凹状である把持部21と、ストラップ130が連結される環状の連結部22とが形成される。   The casing 20 includes a contact surface 23 on which the bone conduction speaker unit 70 and the bone conduction microphone unit 100 are disposed and pressed against the skin, and an operation surface 24 opposite to the contact surface 23 and on which the operation unit 110 and the like are disposed. Is formed. On the side surface between the contact surface 23 and the operation surface 24, a concave gripping portion 21 and an annular connection portion 22 to which the strap 130 is connected are formed so that the operator can easily grip the surface.

記憶部30は、制御部40にて実行される動作プログラムや、複数の患者や医療従事者の声紋のデータを、参照用声紋データとして予め格納する。声紋は、声を周波数分析し、縦軸を周波数、横軸を時間とし、音声波形のスペクトルの強度変化を等高線表示したグラフである。声紋は、人によって異なる形状を有している。また、記憶部30は、音声処理部60、識別部80、テキスト化部90等にて用いられる各種パラメータを格納する。記憶部30は、さらに、マイク部50にて集音された後にデジタル化されたデジタル音声データ、テキスト化部90にてテキスト化されたテキストデータ等を格納する。   The storage unit 30 stores in advance, as reference voice print data, an operation program executed by the control unit 40 and voice print data of a plurality of patients or medical workers. A voiceprint is a graph in which a voice is subjected to frequency analysis, the vertical axis represents frequency, the horizontal axis represents time, and the intensity change of the spectrum of the speech waveform is displayed in contour lines. Voiceprints have different shapes depending on the person. In addition, the storage unit 30 stores various parameters used in the voice processing unit 60, the identification unit 80, the text unit 90, and the like. The storage unit 30 further stores digital voice data digitized after being collected by the microphone unit 50, text data converted to text by the text unit 90, and the like.

マイク部50は、操作者および患者が発する音声を集音するマイクロフォンであり、集音した音声から音声信号を生成して音声処理部60へ送信する。   The microphone unit 50 is a microphone that collects voices uttered by the operator and the patient, generates a voice signal from the collected voices, and transmits the voice signal to the voice processing unit 60.

音声処理部60は、マイク部50から入力される音声信号を、MP3、WAV等のフォーマットのデジタル音声データに変換する機能を有している。さらに、音声処理部60は、マイク部50から入力される音声信号を、記憶部30に保管された周波数帯域毎に、周波数変換およびボリューム調節を行う機能を有している。   The audio processing unit 60 has a function of converting an audio signal input from the microphone unit 50 into digital audio data in a format such as MP3 or WAV. Furthermore, the audio processing unit 60 has a function of performing frequency conversion and volume adjustment on the audio signal input from the microphone unit 50 for each frequency band stored in the storage unit 30.

人間の耳が聞き取れる可聴域は、20〜20000Hz程度であるが、人間の音声を聞きとるのに必要な周波数の範囲は、125〜8000Hz程度である。このうち、老人性難聴では、高周波が聞き取りにくくなり、特に、4000Hz以上の高音部から聞き取り難くなる。   The audible range in which a human ear can be heard is about 20 to 20000 Hz, but the frequency range necessary for listening to human speech is about 125 to 8000 Hz. Among these, in senile deafness, it is difficult to hear high frequencies, and in particular, it is difficult to hear from a high frequency part of 4000 Hz or higher.

ところで、個人差があるが、一例として、母音は125〜1500Hzの低帯域に多く含まれ、有声子音は1500〜3000Hzの中帯域に多く含まれ、無声子音は3000〜6000Hzの高帯域に多く含まれる。したがって、老人性難聴では、母音が含まれる低帯域は聞き取りやすく、有声子音が含まれる中帯域は低帯域よりも聞き取り難く、無声子音が含まれる高帯域は、さらに聞き取り難い。そして、老人性難聴では、母音は30dB程度でも聞き取れるが、有声子音は40dB程度以上でないと聞き取ることが困難であり、無声子音は50dB程度以上でないと聞き取ることが困難である。このため、音声処理部60では、帯域毎に、周波数変換およびボリューム調整を行うことができる。例えば、音声処理部60は、母音が存在する低帯域(125〜1500Hz)については、周波数変換は行わず、30dB未満である場合に30dB以上に増幅する。そして、音声処理部60は、有声子音が多い中帯域(1500〜3000Hz)は、1200Hz以下に周波数変換し、40dB未満である場合に40dB以上に増幅する。無声子音が多い高帯域(3000〜6000Hz)は、老人性難聴であっても聞き取りやすい3000Hz以下に周波数変換し、50dB未満である場合に50dB以上に増幅する。これにより、母音、有声子音、無声子音を各々の帯域毎に変調して増幅し、ほぼ全ての音声を認識可能に変換することができる。なお、音声処理部60は、音声の周波数変換やボリューム調整を行わなくてもよい。   By the way, although there are individual differences, as an example, many vowels are included in the low band of 125 to 1500 Hz, voiced consonants are included in the middle band of 1500 to 3000 Hz, and unvoiced consonants are included in the high band of 3000 to 6000 Hz. It is. Therefore, in presbycusis, the low band containing vowels is easier to hear, the middle band containing voiced consonants is harder to hear than the low band, and the high band containing unvoiced consonants is more difficult to hear. In senile deafness, vowels can be heard even at about 30 dB, but voiced consonants are difficult to hear unless they are about 40 dB or more, and unvoiced consonants are difficult to hear unless they are about 50 dB or more. For this reason, the audio processing unit 60 can perform frequency conversion and volume adjustment for each band. For example, the voice processing unit 60 does not perform frequency conversion for a low band (125 to 1500 Hz) where vowels exist, and amplifies it to 30 dB or more when it is less than 30 dB. And the audio | voice processing part 60 frequency-converts the middle band (1500-3000 Hz) with many voiced consonants to 1200 Hz or less, and when it is less than 40 dB, it amplifies to 40 dB or more. The high band (3000 to 6000 Hz) with many unvoiced consonants is frequency-converted to 3000 Hz or less that is easy to hear even for presbycusis and is amplified to 50 dB or more when it is less than 50 dB. Thus, vowels, voiced consonants, and unvoiced consonants can be modulated and amplified for each band, and almost all speech can be converted to be recognizable. Note that the audio processing unit 60 may not perform audio frequency conversion or volume adjustment.

また、音声処理部60は、周波数変換および増幅された音声の信号を骨伝導スピーカ部70へ送信する。   The audio processing unit 60 transmits the frequency-converted and amplified audio signal to the bone conduction speaker unit 70.

骨伝導スピーカ部70は、骨伝導用の接触子71および振動を発生させるアクチュエータ72を備えるスピーカである。アクチュエータ72は、音声処理部60から受信した信号によって振動を発生させ、接触子71を振動させる。接触子71は、筐体20から露出し、患者に接触可能となっている。接触子71は、患者の皮膚202に接触し、皮膚202を介して皮膚202の直下に位置する頭蓋骨201(図9を参照)に振動を伝える。骨伝導スピーカ部70は、操作部110における操作によってオン−オフを切り換えることが可能である。これにより、骨伝導スピーカ部70を用いなければ会話が成り立たない場合にのみ、骨伝導スピーカ部70を利用することができる。   The bone conduction speaker unit 70 is a speaker including a bone conduction contact 71 and an actuator 72 that generates vibration. The actuator 72 generates vibration by the signal received from the sound processing unit 60 and vibrates the contact 71. The contact 71 is exposed from the housing 20 and can contact the patient. The contact 71 comes into contact with the patient's skin 202 and transmits vibrations to the skull 201 (see FIG. 9) located directly under the skin 202 through the skin 202. The bone conduction speaker unit 70 can be switched on and off by an operation in the operation unit 110. As a result, the bone conduction speaker unit 70 can be used only when a conversation cannot be established without using the bone conduction speaker unit 70.

骨伝導マイク部100は、患者の声帯で発生した振動を頭蓋骨201を介して計測する高感度の振動センサ素子101を備え、集音した振動から音声信号を生成して音声処理部60へ送信する。骨伝導マイク部100は、操作部110における操作によってオン−オフを切り換えることが可能である。これにより、骨伝導マイク部100を用いなければ会話が成り立たない場合にのみ、骨伝導マイク部100を利用することができる。   The bone conduction microphone unit 100 includes a highly sensitive vibration sensor element 101 that measures vibration generated in a patient's vocal cords via the skull 201, generates a voice signal from the collected vibration, and transmits the voice signal to the voice processing unit 60. . The bone conduction microphone unit 100 can be switched on and off by an operation in the operation unit 110. As a result, the bone conduction microphone unit 100 can be used only when a conversation cannot be established without using the bone conduction microphone unit 100.

識別部80は、マイク部50や骨伝導マイク部100で得られた音声データを声紋データに変換する。次に、識別部80は、音声データから変換された声紋データを、記憶部30に格納されている複数の参照用声紋データと照合し、公知の話者識別技術により、合致する参照用声紋データを特定して話者を識別する。   The identification unit 80 converts voice data obtained by the microphone unit 50 and the bone conduction microphone unit 100 into voiceprint data. Next, the identification unit 80 collates the voiceprint data converted from the voice data with a plurality of reference voiceprint data stored in the storage unit 30, and matches the reference voiceprint data that matches with a known speaker identification technique. To identify the speaker.

テキスト化部90は、音声データをテキストデータに変換する。テキスト化部90は、文字に変換された数字を、数値に変換することができる。また、テキスト化部90は、数値の前後の”度(ど)”、”分(ぶ)”、”温度(おんど)”などの文字から、数値を体温と認識することができ、数値が体温である場合には、体温データを保存する別のセグメントに、体温として数値を記録する。テキスト化部90は、2秒以上マイク部50への音声の入力がない場合に、テキストデータに改行を挿入する。音声データおよびテキストデータは、声紋により特定された人(例えば、医療従事者および患者)および時刻(例えば、記録が開始された日および時間)等に関連付けて、記憶部30に格納される。デジタル音声データおよびテキストデータは、例えば、ファイル名に、参照用声紋データ名および記録が開始された時刻を用いることで、関連付けることができる。なお、これらのファイル名に使用される項目(例えば、参照用声紋データ名、記録が開始された時刻等)の種類や順番は、任意に設定し、変更することができる。また、これらのファイル名の順番は任意で設定し、変更することができる。また、自動で記録時間順に並び変えることもできる。   The text unit 90 converts the voice data into text data. The text unit 90 can convert the numbers converted into characters into numerical values. In addition, the text converting unit 90 can recognize the numerical value as body temperature from characters such as “degree”, “minute”, “temperature” etc. before and after the numerical value. In the case of body temperature, a numerical value is recorded as body temperature in another segment for storing body temperature data. The text converting unit 90 inserts a line feed into the text data when there is no voice input to the microphone unit 50 for 2 seconds or more. The voice data and the text data are stored in the storage unit 30 in association with a person (for example, a medical worker and a patient) specified by a voiceprint and a time (for example, a date and time when recording is started). Digital audio data and text data can be associated by using, for example, a reference voice print data name and a recording start time as a file name. Note that the types and order of items used for these file names (for example, reference voice print data name, recording start time, etc.) can be arbitrarily set and changed. In addition, the order of these file names can be arbitrarily set and changed. It can also be automatically arranged in order of recording time.

操作部110は、筐体20の操作面24に配置されて各種操作を行うための部位であり、画像モニタ111と、骨伝導スピーカ部70用の第2スイッチ部112と、骨伝導マイク部100用の第3スイッチ部113とを備えている。画像モニタ111は、識別部80にて識別された話者の名前を表示したり、音声をテキスト化したキストを表示できる。画像モニタ111は、例えばLCD(Liquid Crystal Display)や有機EL(Electro−Luminescence)ディスプレイ等のディスプレイデバイスを有して形成される。第2スイッチ部112は、骨伝導スピーカ部70のオン−オフを切り換えるためのスイッチである。第3スイッチ部113は、骨伝導マイク部100のオン−オフを切り換えるためのスイッチである。   The operation unit 110 is a part that is arranged on the operation surface 24 of the housing 20 and performs various operations. The operation unit 110 includes an image monitor 111, a second switch unit 112 for the bone conduction speaker unit 70, and the bone conduction microphone unit 100. And a third switch section 113 for use. The image monitor 111 can display the name of the speaker identified by the identifying unit 80, or can display a text that is converted from speech into text. The image monitor 111 is formed with a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display. The second switch unit 112 is a switch for switching the bone conduction speaker unit 70 on and off. The third switch unit 113 is a switch for switching the bone conduction microphone unit 100 on and off.

接続部140は、図4、6に示すように、記憶部30との間でデータを送受信するために、外部から通信ケーブル310のコネクタ311を接続可能なコネクタである。通信ケーブル310は、例えばUSBケーブルであり、通信ケーブル310により電子カルテとアクセス可能なコンピュータ300に接続することで、記録されたデータを、電子カルテに転送することができる。また、接続部140は、通信ケーブル310を介して筐体20内のバッテリ(図示せず)を充電する役割をも果たす。   As shown in FIGS. 4 and 6, the connection unit 140 is a connector that can connect the connector 311 of the communication cable 310 from the outside in order to transmit and receive data to and from the storage unit 30. The communication cable 310 is, for example, a USB cable, and the recorded data can be transferred to the electronic medical record by connecting to the computer 300 that can access the electronic medical record through the communication cable 310. The connection unit 140 also serves to charge a battery (not shown) in the housing 20 via the communication cable 310.

なお、データを送受信する方法として、ケーブルを使うのではなく、例えばNFC(Near Field Communication)などの通信技術を用いて、無線で行うこともできる。   In addition, as a method of transmitting and receiving data, it is possible to perform wirelessly using a communication technique such as NFC (Near Field Communication) instead of using a cable.

第1スイッチ部120は、図1〜4に示すように、接触子71を皮膚202に接触させた際にデータ記録装置10の動作が開始するように、筐体20に設けられる。第1スイッチ部120は、例えば、ばね(図示せず)により突出した状態で付勢された凸部121を備え、凸部121が皮膚202に接触して押し込まれることで、凸部121が突出している状態において離れて位置する2つの接点(図示せず)を備えている。2つの接点が電気的に接触すると、電流が流れてデータ記録装置10の動作が開始される。そして、凸部121が皮膚202から離れることで、ばねにより凸部121が突出し、2つの接点が離れてデータ記録装置10の動作が停止する。なお、第1スイッチ部120の構成はこれに限定されず、例えば、皮膚202に2つの電極が接触して皮膚202を介して電流が流れることでデータ記録装置10の動作が開始する構成であってり、皮膚202に接触して温度が上昇することでデータ記録装置10の動作を開始させる温度センサであってもよい。   1-4, the 1st switch part 120 is provided in the housing | casing 20 so that operation | movement of the data recording device 10 may be started, when the contactor 71 is made to contact the skin 202. As shown in FIGS. The first switch part 120 includes, for example, a convex part 121 that is biased in a state of projecting by a spring (not shown), and the convex part 121 projects by being pushed in contact with the skin 202. Two contact points (not shown) which are located apart from each other. When the two contacts come into electrical contact, a current flows and the operation of the data recording device 10 is started. Then, when the convex portion 121 is separated from the skin 202, the convex portion 121 is projected by the spring, the two contact points are separated, and the operation of the data recording apparatus 10 is stopped. The configuration of the first switch unit 120 is not limited to this. For example, the operation of the data recording apparatus 10 is started when two electrodes are in contact with the skin 202 and a current flows through the skin 202. Alternatively, it may be a temperature sensor that starts the operation of the data recording device 10 when the temperature rises in contact with the skin 202.

ストラップ130は、操作者が首等に掛けられるように筐体20に取り付けられる紐状の柔軟な部材である。操作者は、ストラップ130を首等に掛けた状態で持ち運ぶことができ、ストラップ130を首に掛けた状態のまま、把持部21を把持してデータ記録装置10として使用することができる。   The strap 130 is a string-like flexible member attached to the housing 20 so that the operator can be hung on the neck or the like. The operator can carry the strap 130 in a state where the strap 130 is hung on the neck or the like, and can use the data recording apparatus 10 by gripping the grip portion 21 while the strap 130 is hung on the neck.

制御部40は、CPU(Central Processing Unit)および動作プログラムにより構成され、マイク部50、音声処理部60、骨伝導スピーカ部70、骨伝導マイク部100、識別部80、テキスト化部90、操作部110および第1スイッチ部120の動作を統括的に制御する。制御部40は、関連付けられるテキストデータおよび音声データの一方が消去された場合には、他方をも消去する。データの消去は、例えば、操作部110のタッチパネルである画像モニタ111から行うことができる。   The control unit 40 includes a CPU (Central Processing Unit) and an operation program, and includes a microphone unit 50, a voice processing unit 60, a bone conduction speaker unit 70, a bone conduction microphone unit 100, an identification unit 80, a text unit 90, and an operation unit. The operation of the 110 and the first switch unit 120 is comprehensively controlled. When one of the associated text data and voice data is deleted, the control unit 40 also deletes the other. Data can be erased from the image monitor 111 which is a touch panel of the operation unit 110, for example.

次に、本実施形態に係るデータ記録装置10の使用方法を、医師や看護師などの操作者が老人性難聴の患者から聞き取りを行う際を例として、図7に示すフローチャートを参照しつつ説明する。ここでは、骨伝導スピーカ部70および骨伝導マイク部100を用いる場合を例として説明する。   Next, a method of using the data recording apparatus 10 according to the present embodiment will be described with reference to the flowchart shown in FIG. 7, taking as an example a case where an operator such as a doctor or a nurse listens to a patient with senile deafness. To do. Here, a case where the bone conduction speaker unit 70 and the bone conduction microphone unit 100 are used will be described as an example.

まず、操作者は、ストラップ130を首に掛けた状態で、第2スイッチ部112および第3スイッチ部113をオン(作動可能)の状態とする。これにより、骨伝導スピーカ部70および骨伝導マイク部100が作動可能となる。   First, the operator turns on (operates) the second switch unit 112 and the third switch unit 113 with the strap 130 on the neck. As a result, the bone conduction speaker unit 70 and the bone conduction microphone unit 100 can be operated.

次に、操作者は、図8、9に示すように、把持部21を把持して、患者の頭蓋骨201を覆う皮膚202に接触子71および骨伝導マイク部100を接触させる。   Next, as shown in FIGS. 8 and 9, the operator grasps the grasping portion 21 and brings the contact 71 and the bone conduction microphone portion 100 into contact with the skin 202 covering the skull 201 of the patient.

骨伝導マイク部100および接触子71を皮膚202に接触させると、第1スイッチ部120の凸部121が押し込まれて、第1スイッチ部120の内部の2つの接点が接触し、制御部40によってデータ記録装置10の動作が開始される(ステップS1)。   When the bone conduction microphone part 100 and the contact 71 are brought into contact with the skin 202, the convex part 121 of the first switch part 120 is pushed in, and the two contacts inside the first switch part 120 come into contact with each other. The operation of the data recording device 10 is started (step S1).

データ記録装置10の動作が開始されると、マイク部50および骨伝導マイク部100により会話が集音される。マイク部50または骨伝導マイク部100に、操作者および患者の声が入力されると、音声データとして音声処理部に送信される(ステップS2)。次に、識別部80が、マイク部50や骨伝導マイク部100で得られた音声データを声紋データに変換し、この声紋データを、記憶部30に格納されている複数の参照用声紋データと照合し、合致する参照用声紋データを識別して話者を特定する(ステップS3)。特定される話者は、例えば、医療従事者と患者である。識別された話者は、画像モニタ111に表示される(ステップS4)。識別された話者が間違っている場合には、第1スイッチ部120を皮膚から離し、再び押し付けて、再開することができる。   When the operation of the data recording device 10 is started, a conversation is collected by the microphone unit 50 and the bone conduction microphone unit 100. When the voices of the operator and the patient are input to the microphone unit 50 or the bone conduction microphone unit 100, the voice data is transmitted to the voice processing unit (step S2). Next, the identification unit 80 converts voice data obtained by the microphone unit 50 and the bone conduction microphone unit 100 into voiceprint data, and the voiceprint data is converted into a plurality of reference voiceprint data stored in the storage unit 30. The speaker is identified by collating and identifying the matching reference voiceprint data (step S3). The identified speakers are, for example, medical personnel and patients. The identified speaker is displayed on the image monitor 111 (step S4). If the identified speaker is wrong, the first switch 120 can be moved away from the skin and pressed again to resume.

また、音声処理部60は、受信した音声データを、周波数帯域に応じて周波数を変換し(ステップS5)、かつ周波数帯域に応じてボリューム調節を行う(ステップS6)。これにより、高く聞き取り難い高周波の音を低周波に変換し、かつ聞き取り難い高周波の音を増幅させて、難聴であっても聞き取りやすい音声とする。   The audio processing unit 60 converts the frequency of the received audio data according to the frequency band (step S5) and adjusts the volume according to the frequency band (step S6). As a result, high-frequency sound that is difficult to hear is converted to low frequency, and high-frequency sound that is difficult to hear is amplified, so that it is easy to hear even if it is hard to hear.

次に、音声処理部60は、周波数を変換して増幅させた音声信号を、骨伝導スピーカ部70へ送信する。骨伝導スピーカ部70は、アクチュエータ72により接触子71が振動し、皮膚202の直下に位置する頭蓋骨201を加振する(ステップS7)。頭蓋骨201を介して蝸牛200に振動が伝達されるため、外耳、中耳および内耳の機能が低下していても、高い音や聞き取り難い音を、患者が認識しやすい。   Next, the sound processing unit 60 transmits the sound signal amplified by converting the frequency to the bone conduction speaker unit 70. In the bone conduction speaker unit 70, the contact 71 is vibrated by the actuator 72, and the skull 201 located immediately below the skin 202 is vibrated (step S7). Since vibration is transmitted to the cochlea 200 via the skull 201, even if the functions of the outer ear, the middle ear, and the inner ear are deteriorated, it is easy for the patient to recognize high sounds and sounds that are difficult to hear.

また、マイク部50および骨伝導マイク部100により集音した音声データは、テキスト化部90によりテキストデータに変換される(ステップS8)。テキスト化部90は、文字に数字が含まれるか判別し(ステップS9)、文字に数字が含まれると判別した場合に、文字を数値に変換する(ステップS10)。さらに、数値は、体温データか判別され(ステップS11)、体温と判別された場合には、体温データを保存する別のセグメントに、体温として数値を記録する(ステップS12)。また、テキスト化部90は、マイク部50への音声の入力が2秒以上ないかを判別し(ステップS13)、音声の入力が2秒以上ない場合に、テキストデータに改行を挿入する(ステップS14)。   The voice data collected by the microphone unit 50 and the bone conduction microphone unit 100 is converted into text data by the text unit 90 (step S8). The text forming unit 90 determines whether the character includes a number (step S9), and when determining that the character includes a number, converts the character into a numerical value (step S10). Further, it is determined whether the numerical value is body temperature data (step S11). If it is determined that the temperature is body temperature, the numerical value is recorded as a body temperature in another segment that stores the body temperature data (step S12). Further, the text conversion unit 90 determines whether there is no voice input to the microphone unit 50 for 2 seconds or more (step S13), and if there is no voice input for 2 seconds or more, inserts a line feed into the text data (step S13). S14).

テキスト化部90にテキスト化されたテキストデータは、画像モニタ111に表示される(ステップS15)。これにより、変換ミス等を確認することができる。例えば、画像モニタ111をタッチパネルとすれば、変換ミス等を修正可能とすることができる。 The text data converted into text in the text converting unit 90 is displayed on the image monitor 111 (step S15). Thereby, a conversion mistake etc. can be confirmed. For example, if the image monitor 111 is a touch panel, a conversion error or the like can be corrected.

会話が終了した後、操作者は、把持部21を把持した状態でデータ記録装置10を皮膚202から離す。これにより、第1スイッチ部120がオフとなり、マイク部50、骨伝導スピーカ部70、骨伝導マイク部100による音声の入出力が終了する(ステップS16)。   After the conversation is finished, the operator separates the data recording device 10 from the skin 202 while holding the grip portion 21. Thereby, the 1st switch part 120 turns off, and the input / output of the audio | voice by the microphone part 50, the bone conduction speaker part 70, and the bone conduction microphone part 100 is complete | finished (step S16).

この後、音声データが、音声処理部60にてデジタル音声データに変換され、デジタル音声データおよびテキストデータが、声紋により特定された人(例えば、医療従事者および患者)および日時(例えば、記録が開始された日時)等に関連付けて、記憶部30に格納される(ステップS17)。   Thereafter, the voice data is converted into digital voice data by the voice processing unit 60, and the digital voice data and the text data are identified by the voiceprint (for example, a healthcare worker and a patient) and the date (for example, recorded). The date and time are started and stored in the storage unit 30 (step S17).

一例として、声紋により特定された人を表す記号が、操作者が”A010”、患者が”B020”、記録が開始された日時が”2015年5月1日10時10分”であった場合、デジタル音声データのファイル名を”A01B020_201505011010.mp3”、テキストデータのファイル名を”A01B020_201505011010.txt”とすることができる。データが格納された後、データ記録装置10の動作が終了する。なお、これらのファイル名に使用される項目(例えば、操作者を表す記号、患者を表す記号、記録が開始された時刻等)の種類や順番は、任意に設定し、変更することができる。また、これらのファイル名の順番は任意で設定し、変更することができる。また、自動で記録時間順に並び変えることもできる。   As an example, when the operator is identified as “A010”, the patient is “B020”, and the recording start date is “10:10 on May 1, 2015”. The file name of the digital audio data can be “A01B020 — 201505011010.mp3”, and the file name of the text data can be “A01B020 — 201015011010.txt”. After the data is stored, the operation of the data recording device 10 ends. Note that the types and order of items used in these file names (for example, a symbol representing an operator, a symbol representing a patient, a recording start time, etc.) can be arbitrarily set and changed. In addition, the order of these file names can be arbitrarily set and changed. It can also be automatically arranged in order of recording time.

操作者は、複数人の患者に対して、上述の記録を順次行うことができる。操作者は、複数人の記録が終了した後、図6に示すように、接続部140にケーブル310を接続して、電子カルテに接続可能なコンピュータ300に接続する。これにより、記録されたデジタル音声データおよびテキストデータを、電子カルテに転送することができる。転送されたデジタル音声データおよびテキストデータは、操作者、患者および日時のデータで関連付けられているため、管理が容易となる。また、接続部140にケーブル310に接続することで、データ記録装置10を充電することができる。   The operator can sequentially perform the above-described recording for a plurality of patients. After the recording of a plurality of persons is completed, the operator connects the cable 310 to the connection unit 140 and connects to the computer 300 that can be connected to the electronic medical chart as shown in FIG. Thereby, the recorded digital audio data and text data can be transferred to the electronic medical record. Since the transferred digital audio data and text data are associated with each other by the operator, patient and date / time data, the management becomes easy. In addition, the data recording device 10 can be charged by connecting the cable 310 to the connection unit 140.

以上のように、本実施形態に係るデータ記録装置10は、複数人の参照用声紋データが格納される記憶部30と、音声を検出するマイク部50と、マイク部50にて検出された音声の声紋を複数人の参照用声紋データと照合して合致する話者を識別する識別部80と、マイク部50にて検出された音声をテキスト化するテキスト化部90と、を有するデータ記録装置10である。上記のように構成したデータ記録装置10は、マイク部50にて検出された声紋を、記憶部30に格納された参照用声紋データと照合して話者を特定できるため、音声データを話者に関連付けつつ効率よくテキスト化できる。   As described above, the data recording apparatus 10 according to the present embodiment includes the storage unit 30 that stores voiceprint data for reference of a plurality of people, the microphone unit 50 that detects audio, and the audio detected by the microphone unit 50. Data recording apparatus comprising: an identification unit 80 for identifying a matching speaker by comparing the voiceprint of the voice with a plurality of reference voiceprint data, and a text unit 90 for converting the voice detected by the microphone unit 50 into text 10. Since the data recording apparatus 10 configured as described above can identify the speaker by comparing the voiceprint detected by the microphone unit 50 with the reference voiceprint data stored in the storage unit 30, It can be made into text efficiently while being related to.

また、識別部80にて識別された話者と関連付けて、テキスト化されたテキストデータを記憶部30に記憶するため、メモを取る必要がなく、作業が容易かつ正確に実施可能になるとともに、テキストデータの管理が容易となる。   In addition, since the text data that has been converted into text is stored in the storage unit 30 in association with the speaker identified by the identification unit 80, it is not necessary to take notes, and the operation can be performed easily and accurately. Management of text data becomes easy.

また、データ記録装置10は、マイク部50にて検出された音声をデジタル化する音声処理部をさらに有し、記憶部30は、テキストデータとともにデジタル化されたデジタル音声データを記憶するため、テキストデータおよびデジタル音声データの管理が容易となる。   The data recording apparatus 10 further includes a voice processing unit that digitizes the voice detected by the microphone unit 50, and the storage unit 30 stores the digital voice data digitized together with the text data. Data and digital audio data can be easily managed.

また、テキストデータおよびデジタル音声データは、記録が行われた時刻の情報を有するため、テキストデータおよびデジタル音声データを関連付けて管理できる。   Further, since the text data and the digital voice data have information on the time when the recording was performed, the text data and the digital voice data can be managed in association with each other.

また、テキスト化部90は、テキストである数字を数値に変換するため、例えば体温等の数値の管理が容易となる。   Moreover, since the text conversion part 90 converts the number which is a text into a numerical value, management of numerical values, such as body temperature, becomes easy, for example.

また、テキスト化部90は、マイク部50にて検出される音声が所定の時間存在しない場合に、テキストを改行するため、テキストの視認性や取り扱い性が向上する。   In addition, since the text conversion unit 90 breaks the text when the voice detected by the microphone unit 50 does not exist for a predetermined time, the text visibility and handling are improved.

また、データ記録装置10は、マイク部50にて検出された音声を振動として出力する骨伝導スピーカ部70を有するため、難聴の人に対しても効果的に音声を伝達させることができ、データの良好な記録が可能となる。   In addition, since the data recording device 10 includes the bone conduction speaker unit 70 that outputs the sound detected by the microphone unit 50 as vibration, the data recording device 10 can effectively transmit the sound to a person with hearing loss. Can be recorded well.

また、データ記録装置10は、マイク部50が、接触する部位の振動から音を検出する骨伝導マイク部100を有するため、会話が困難な人の音声であっても、骨を介して効果的に集音することができ、データの良好な記録が可能となる。   Moreover, since the data recording apparatus 10 has the bone conduction microphone part 100 in which the microphone part 50 detects a sound from the vibration of the part which contacts, even if it is a voice of a person with a difficult conversation, it is effective via a bone. Therefore, it is possible to record data well.

なお、本発明は、上述した実施形態のみに限定されるものではなく、本発明の技術的思想内において当業者により種々変更が可能である。例えば、図10に示す変形例であるデータ記録装置150は、ストラップ160が、筐体170が連結される側と反対側にクリップ161が設けられたワイヤ162を備え、筐体170の内部に、巻き取り可能なリール機構163が設けられてもよい。リール機構163は、例えば、ゼンマイ式である。また、リール機構163は、ワイヤ162が所定長さ以上引き出された際に、データ記録装置150の動作を開始させるスイッチ機構180を備えている。スイッチ機構180は、例えば、リール機構163のロールに巻き取られているワイヤ162の巻き取り量(厚さ)を検出する光センサである。データ記録装置150は、ワイヤ162がリール機構163に巻き取られ、かつクリップ161が操作者の衣服に取り付けた状態で持ち運ばれる。そして、操作者によって筐体170が患者に近づけられて、リール機構163からワイヤ162が所定長さ以上引き出された際に、データ記録装置150の動作が開始される。なお、前述の実施形態と同一の機能を有する部位には、同一の符号を付し、説明を省略する。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made by those skilled in the art within the technical idea of the present invention. For example, in the data recording device 150 which is a modified example shown in FIG. 10, the strap 160 includes a wire 162 provided with a clip 161 on the side opposite to the side to which the housing 170 is connected. A reel mechanism 163 that can be wound may be provided. The reel mechanism 163 is, for example, a spring type. Further, the reel mechanism 163 includes a switch mechanism 180 that starts the operation of the data recording device 150 when the wire 162 is pulled out by a predetermined length or more. The switch mechanism 180 is, for example, an optical sensor that detects the winding amount (thickness) of the wire 162 wound around the roll of the reel mechanism 163. The data recording device 150 is carried in a state where the wire 162 is wound around the reel mechanism 163 and the clip 161 is attached to the clothes of the operator. When the operator brings the casing 170 close to the patient and the wire 162 is pulled out from the reel mechanism 163 by a predetermined length or longer, the operation of the data recording device 150 is started. In addition, the same code | symbol is attached | subjected to the site | part which has the same function as the above-mentioned embodiment, and description is abbreviate | omitted.

また、データ記録装置は、骨伝導スピーカ部や骨伝導マイク部が設けられなくてもよい。   Further, the data recording apparatus may not include a bone conduction speaker unit or a bone conduction microphone unit.

また、データ記録装置は、例えばスマートフォンやタブレット端末などの携帯用端末およびアプリケーション(プログラム)により構成されてもよい。   Further, the data recording apparatus may be configured by a portable terminal such as a smartphone or a tablet terminal and an application (program).

また、クリップ161を、フォーンプラグ(φ3.5mmミニプラグ)に変えて構成されてもよい。この場合は、データ記録装置をスマートフォンやタブレット端末などの携帯用端末およびアプリケーション(プログラム)を好適に活用することができ、なおかつデータ記録装置150の構成を簡素化することができる。   Further, the clip 161 may be configured by changing to a phone plug (φ3.5 mm mini plug). In this case, the data recording apparatus can be suitably used for portable terminals such as smartphones and tablet terminals and applications (programs), and the configuration of the data recording apparatus 150 can be simplified.

10、150 データ記録装置、
30 記憶部、
40 制御部、
50 マイク部、
60 音声処理部、
70 骨伝導スピーカ部、
80 識別部、
90 テキスト化部、
100 骨伝導マイク部、
110 操作部、
111 画像モニタ、
200 蝸牛、
201 頭蓋骨、
202 皮膚。
10, 150 data recording device,
30 storage unit,
40 control unit,
50 Microphone part,
60 voice processing unit,
70 bone conduction speaker,
80 identification part,
90 Texting part,
100 bone conduction microphone,
110 operation unit,
111 image monitor,
200 Cochlea,
201 skull,
202 Skin.

Claims (7)

複数人の参照用声紋データが格納される記憶部と、
音声を検出するマイク部と、
前記マイク部にて検出された音声の声紋を複数人の前記参照用声紋データと照合して合致する話者を識別する識別部と、
前記マイク部にて検出された音声をテキスト化するテキスト化部と、を有し、前記識別部にて識別された話者と関連付けて、テキスト化されたテキストデータを記憶部に記憶するデータ記録装置。
A storage unit for storing voiceprint data for a plurality of people;
A microphone for detecting voice;
An identification unit for identifying a matching speaker by collating voice voice prints detected by the microphone unit with a plurality of reference voice print data;
A data recording unit that stores the text data that has been converted into text in association with the speaker identified by the identification unit; apparatus.
前記マイク部にて検出された音声をデジタル化する音声処理部をさらに有し、
前記記憶部は、前記テキストデータとともにデジタル化されたデジタル音声データを記憶する請求項1に記載のデータ記録装置。
An audio processing unit for digitizing audio detected by the microphone unit;
The data storage device according to claim 1, wherein the storage unit stores digital audio data digitized together with the text data.
前記テキストデータおよび前記デジタル音声データは、記録が行われた時刻の情報を有する請求項2に記載のデータ記録装置。   The data recording apparatus according to claim 2, wherein the text data and the digital audio data have information on a time at which recording was performed. 前記テキスト化部は、テキストである数字を数値に変換する請求項1〜3のいずれか1項に記載のデータ記録装置。   The data recording device according to claim 1, wherein the text converting unit converts a number that is text into a numerical value. 前記テキスト化部は、前記マイク部にて検出される音声が所定の時間存在しない場合に、テキストを改行する請求項1〜4のいずれか1項に記載のデータ記録装置。   The data recording device according to any one of claims 1 to 4, wherein the text converting unit changes the text to a new line when the sound detected by the microphone unit does not exist for a predetermined time. 前記マイク部にて検出された音声を振動として出力する骨伝導スピーカ部をさらに有する請求項1〜5のいずれか1項に記載のデータ記録装置。   The data recording apparatus according to any one of claims 1 to 5, further comprising a bone conduction speaker unit that outputs sound detected by the microphone unit as vibration. 前記マイク部は、接触する部位の振動から音を検出する骨伝導マイク部を有する請求項1〜6のいずれか1項に記載のデータ記録装置。   The data recording apparatus according to any one of claims 1 to 6, wherein the microphone unit includes a bone conduction microphone unit that detects sound from vibration of a contacted part.
JP2015128316A 2015-06-26 2015-06-26 Data recording device Pending JP2017009956A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015128316A JP2017009956A (en) 2015-06-26 2015-06-26 Data recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015128316A JP2017009956A (en) 2015-06-26 2015-06-26 Data recording device

Publications (1)

Publication Number Publication Date
JP2017009956A true JP2017009956A (en) 2017-01-12

Family

ID=57762515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015128316A Pending JP2017009956A (en) 2015-06-26 2015-06-26 Data recording device

Country Status (1)

Country Link
JP (1) JP2017009956A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080124A (en) * 2018-11-14 2020-05-28 アイホン株式会社 Voice information storage system and nurse call system
JP2020185618A (en) * 2019-05-10 2020-11-19 株式会社スター精機 Machine operation method, machine operation setting method, and machine operation confirmation method
JPWO2021059594A1 (en) * 2019-09-27 2021-04-01
JP2022053367A (en) * 2020-09-24 2022-04-05 株式会社Jvcケンウッド Communication device, communication method, and computer program
JPWO2022168433A1 (en) * 2021-02-08 2022-08-11

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080124A (en) * 2018-11-14 2020-05-28 アイホン株式会社 Voice information storage system and nurse call system
JP7112806B2 (en) 2018-11-14 2022-08-04 アイホン株式会社 Voice information storage system and nurse call system
JP2020185618A (en) * 2019-05-10 2020-11-19 株式会社スター精機 Machine operation method, machine operation setting method, and machine operation confirmation method
JPWO2021059594A1 (en) * 2019-09-27 2021-04-01
WO2021059594A1 (en) * 2019-09-27 2021-04-01 富士フイルム株式会社 Medical care assistance apparatus
JP7265638B2 (en) 2019-09-27 2023-04-26 富士フイルム株式会社 Medical support device
JP7547545B2 (en) 2019-09-27 2024-09-09 富士フイルム株式会社 Conference support device, method, and program
JP2022053367A (en) * 2020-09-24 2022-04-05 株式会社Jvcケンウッド Communication device, communication method, and computer program
JP7574589B2 (en) 2020-09-24 2024-10-29 株式会社Jvcケンウッド Communication device, communication method, and computer program
JPWO2022168433A1 (en) * 2021-02-08 2022-08-11
WO2022168433A1 (en) * 2021-02-08 2022-08-11 株式会社日立ハイテク Automatic analysis device and automatic analysis system
JP7578732B2 (en) 2021-02-08 2024-11-06 株式会社日立ハイテク Automated Analysis Equipment

Similar Documents

Publication Publication Date Title
US20240430605A1 (en) Microphone Natural Speech Capture Voice Dictation System and Method
AU2009348759B2 (en) EEG monitoring apparatus and method for presenting messages therein
US11395076B2 (en) Health monitoring with ear-wearable devices and accessory devices
Holube et al. Ecological momentary assessment in hearing research: Current state, challenges, and future directions
US11501028B2 (en) Electronic device, audio device, electronic device control method and storage medium
JP2017009956A (en) Data recording device
CN115137372B (en) Brainwave data analysis systems, information processing terminals, electronic equipment
US9538005B1 (en) Automated response system
US20120158432A1 (en) Patient Information Documentation And Management System
JP2009136456A (en) Mobile terminal device
KR20150052660A (en) Apparatus and method for detecting abnormality of a hearing aid
KR102374620B1 (en) Device and system for voice recognition
WO2017175997A1 (en) Electronic apparatus and control method therefor
US11589173B2 (en) Hearing aid comprising a record and replay function
CN106713569B (en) Operation control method of wearable device and wearable device
WO2017176956A1 (en) Remote controlled medical assistance device
US20220345836A1 (en) Health monitoring with ear-wearable devices and accessory devices
JP2007235292A (en) Recording device
US9305551B1 (en) Scribe system for transmitting an audio recording from a recording device to a server
CN111818418A (en) Earphone background display method and system
CN1147185C (en) Radio mobile phone capable of transmitting emergency message to base station
JP6605774B1 (en) Information processing system, information processing apparatus, information processing method, and computer program
CN110148280A (en) A kind of epileptic intelligently nurses the epilepsy method for early warning of earphone and its use
JP2015139083A (en) Auditory sense supplement system and auditory sense supplement method
JP2018041060A (en) Interaction apparatus and interaction system employing the same