[go: up one dir, main page]

JP2024060181A - Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program - Google Patents

Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program Download PDF

Info

Publication number
JP2024060181A
JP2024060181A JP2022167363A JP2022167363A JP2024060181A JP 2024060181 A JP2024060181 A JP 2024060181A JP 2022167363 A JP2022167363 A JP 2022167363A JP 2022167363 A JP2022167363 A JP 2022167363A JP 2024060181 A JP2024060181 A JP 2024060181A
Authority
JP
Japan
Prior art keywords
terminal
subject
word
vocabulary
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022167363A
Other languages
Japanese (ja)
Inventor
早紀 辻
Saki Tsuji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022167363A priority Critical patent/JP2024060181A/en
Publication of JP2024060181A publication Critical patent/JP2024060181A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】対象者の語彙力を正確に評価する。【解決手段】通信可能に接続された端末2を介して、対象者の発話に含まれる単語を収集する単語収集手段11と、端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段13と、対象者における単語の習得状況を、環境ごとに分析する分析手段14と、を有する、語彙評価装置1。単語収集手段は、発話内容を収音した音源を取得する音声受信手段111を有し、語彙評価装置は、音源を音声認識し、音源に含まれる単語を抽出する音声認識手段122をさらに有してもよい。【選択図】図2[Problem] To accurately evaluate the vocabulary ability of a subject. [Solution] A vocabulary evaluation device 1 having a word collection means 11 that collects words included in the subject's utterance via a terminal 2 connected for communication, an environment acquisition means 13 that acquires the environment in which the utterance was made based on information from the terminal, and an analysis means 14 that analyzes the subject's word acquisition status for each environment. The word collection means has a voice receiving means 111 that acquires an audio source that has picked up the contents of the utterance, and the vocabulary evaluation device may further have a voice recognition means 122 that recognizes the audio source and extracts words included in the audio source. [Selected Figure] Figure 2

Description

本発明は、対象者の語彙力を評価する技術に関する。 The present invention relates to a technology for evaluating a subject's vocabulary ability.

子供の言語発達を評価する技術が種々提案されている。例えば、特許文献1には、学習者の聴取環境に少なくとも1個のマイクロホンを配備することにより、発話を収音し、語彙及び言語の学習を支援する方法が記載されている。特許文献2には、画像データに基づいて検出した顔の表情を判定する技術が記載されている。特許文献3には、複数のユーザごとに発話種別ごとの発話内容の数を集計することにより、各ユーザの育成レベルを決定する育成支援装置が開示されている。特許文献4には、成長発達をサポートするサポート表をデジタル化する技術が開示されている。 Various technologies have been proposed for evaluating children's language development. For example, Patent Document 1 describes a method of supporting vocabulary and language learning by collecting speech by arranging at least one microphone in the learner's listening environment. Patent Document 2 describes a technology for determining facial expressions detected based on image data. Patent Document 3 discloses a development support device that determines the development level of each user by tallying up the number of utterances of each type for multiple users. Patent Document 4 discloses a technology for digitizing a support chart that supports growth and development.

特表第2008-513840号公報Published Patent Application No. 2008-513840 特開第2018-067017号公報JP 2018-067017 A 特開第2012-242732号公報JP 2012-242732 A 実案第3217617号公報Patent Publication No. 3217617

人と人との会話においては、会話相手との関係性や場所といった、会話環境の影響を受け、使用する語彙や語用も変化する。例えば家族等の親しい間柄との会話で使用する語彙と、教師や医療従事者等の他人との会話で使用する語彙とには、差異がある場合がある。また、言語発達の訓練等により新たな単語の教示を受けた場合、その場限りでオウム返しに当該単語を使用する一方、その他の環境では使用しないといったケースも考えられる。このように、対象者が単語を習得しているかを正確に評価するには会話環境の参照が不可欠であるところ、従来技術においては、子細な評価を行うことができなかった。 In conversations between people, the vocabulary and pragmatic usage change depending on the conversation environment, such as the relationship with the conversation partner and the location. For example, the vocabulary used in conversations with close friends, such as family members, may differ from the vocabulary used in conversations with strangers, such as teachers or medical professionals. In addition, when a person is taught new words through language development training, they may repeat the words on the spot, but not use them in other environments. Thus, to accurately evaluate whether a subject has acquired words, it is essential to refer to the conversation environment, but conventional technology has not been able to perform a detailed evaluation.

そこで本発明は、対象者の語彙力をより正確に評価することを目的の一つとする。 Therefore, one of the objectives of the present invention is to more accurately evaluate a subject's vocabulary ability.

上記目的を達成するため、本発明の一の観点に係る語彙評価装置は、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集手段と、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段と、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析手段と、を有する。 To achieve the above object, a vocabulary assessment device according to one aspect of the present invention includes a word collection means for collecting words contained in a subject's utterance via a terminal connected for communication, an environment acquisition means for acquiring the environment in which the utterance was made based on information from the terminal, and an analysis means for analyzing the subject's word acquisition status for each environment.

前記単語収集手段は、前記端末により収音された、前記発話を含む音源を取得する音声受信手段を有し、前記語彙評価装置は、前記音源を音声認識し、前記音源に含まれる前記単語を抽出する音声認識手段をさらに有するものとしてもよい。 The word collection means may include a voice receiving means for acquiring a sound source including the speech collected by the terminal, and the vocabulary evaluation device may further include a voice recognition means for performing voice recognition on the sound source and extracting the words included in the sound source.

前記対象者の声を識別するための情報をあらかじめ記憶する記憶手段と、前記記憶手段を参照し、前記音声受信手段により取得された音源から、前記対象者による発話を識別する声紋識別手段と、をさらに有するものとしてもよい。 The system may further include a storage means for storing information for identifying the voice of the subject in advance, and a voiceprint identification means for referring to the storage means and identifying speech by the subject from the sound source acquired by the voice receiving means.

前記単語収集手段は、前記端末を介して入力される前記単語を受信する入力情報受信手段を有するものとしてもよい。 The word collection means may include an input information receiving means for receiving the words input via the terminal.

前記環境取得手段は、前記端末の識別情報を取得し、前記分析手段は、同一の前記端末で収集された前記単語を、同一の前記環境で発話されたものとして、前記端末の識別情報ごとに、前記単語の習得状況を分析するものとしてもよい。 The environment acquisition means may acquire identification information of the terminal, and the analysis means may analyze the acquisition status of the words for each identification information of the terminal, assuming that the words collected on the same terminal were spoken in the same environment.

前記環境取得手段は、前記端末の位置情報を取得し、前記分析手段は、前記位置情報に基づいて、同一の場所で収集された前記単語を、同一の前記環境で発話されたものとして、前記位置情報ごとに、前記単語の習得状況を分析するものとしてもよい。 The environment acquisition means may acquire location information of the terminal, and the analysis means may analyze the acquisition status of the words for each piece of location information, assuming that the words collected at the same location were spoken in the same environment based on the location information.

前記単語収集手段は、1の前記対象者の発話に含まれる前記単語を複数の前記端末を介して収集するものであり、少なくとも、前記端末の識別情報と前記端末の所持者とを対応付けて記憶する記憶手段をさらに有し、前記環境取得手段は、前記端末の識別情報および位置情報を取得し、前記分析手段は、前記単語を取得した前記端末の前記所持者が前記対象者でない場合には、当該端末を介して取得された前記単語については前記端末の識別情報ごとに前記習得状況を分析し、前記単語を取得した前記端末の前記所持者が前記対象者である場合には、当該端末を介して取得された前記単語については前記端末の位置情報ごとに前記習得状況を分析するものとしてもよい。 The word collection means collects the words contained in the speech of one of the subjects via a plurality of the terminals, and further includes a storage means for storing at least the identification information of the terminal in association with the owner of the terminal, the environment acquisition means acquires the identification information and location information of the terminal, and the analysis means may analyze the learning status of the words acquired via the terminal for each identification information of the terminal if the owner of the terminal that acquired the words is not the subject, and may analyze the learning status of the words acquired via the terminal for each location information of the terminal if the owner of the terminal that acquired the words is the subject.

前記分析手段により分析される、前記単語の前記環境ごとの前記習得状況を、前記端末に表示させる表示制御手段をさらに有するものとしてもよい。 The device may further include a display control means for displaying on the terminal the learning status of the word for each environment analyzed by the analysis means.

上記目的を達成するため、本発明の別の観点に係る語彙評価方法は、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集ステップと、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得ステップと、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析ステップと、を含む。 To achieve the above object, a vocabulary assessment method according to another aspect of the present invention includes a word collection step of collecting words contained in a subject's utterance via a terminal connected for communication, an environment acquisition step of acquiring the environment in which the utterance was made based on information from the terminal, and an analysis step of analyzing the subject's word acquisition status for each environment.

上記目的を達成するため、本発明の一の観点に係る語彙評価プログラムは、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集命令と、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得命令と、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析命令と、をコンピュータに実行させる。 To achieve the above object, a vocabulary assessment program according to one aspect of the present invention causes a computer to execute, via a communicatively connected terminal, a word collection command to collect words contained in a subject's speech, an environment acquisition command to acquire the environment in which the speech was made based on information from the terminal, and an analysis command to analyze the subject's word acquisition status for each environment.

なお、コンピュータプログラムは、インターネット等のネットワークを介したダウンロードによって提供したり、コンピュータ読み取り可能な各種の記録媒体に記録して提供したりすることができる。 Computer programs can be provided by downloading via a network such as the Internet, or by recording them on various computer-readable recording media.

本発明によれば、対象者の語彙力をより正確に評価することができる。 The present invention allows for a more accurate assessment of a subject's vocabulary.

本発明の実施形態に係る語彙評価装置が活用される環境の概要を示す概念図である。1 is a conceptual diagram showing an overview of an environment in which a vocabulary evaluation device according to an embodiment of the present invention is utilized. 本発明の実施形態に係る語彙評価装置の実施形態を示す機能ブロック図である。1 is a functional block diagram illustrating an embodiment of a vocabulary evaluation device according to an embodiment of the present invention. 本発明の実施形態に係る語彙評価装置により端末に表示される画面例を示す図であって、(a)第1例、(b)第2例、(c)第3例、(d)第4例である。1A to 1D are diagrams showing examples of screens displayed on a terminal by a vocabulary evaluation device according to an embodiment of the present invention, where (a) is a first example, (b) is a second example, (c) is a third example, and (d) is a fourth example. 本発明の実施形態に係る語彙評価装置により端末に表示される画面の別の例を示す図であって、(a)第5例、(b)第6例、(c)第7例である。11A to 11C are diagrams showing other examples of screens displayed on a terminal by the vocabulary evaluation device according to the embodiment of the present invention, where (a) is a fifth example, (b) is a sixth example, and (c) is a seventh example. 本発明の実施形態に係る語彙評価装置の処理フローの第1例を示すシーケンス図である。FIG. 2 is a sequence diagram showing a first example of a processing flow of the vocabulary evaluation device according to the embodiment of the present invention. 本発明の実施形態に係る語彙評価装置の処理フローの第2例を示すシーケンス図である。FIG. 11 is a sequence diagram showing a second example of the processing flow of the vocabulary evaluation device according to the embodiment of the present invention.

本発明に係る語彙評価装置の実施形態について、図を参照して説明する。 An embodiment of a vocabulary evaluation device according to the present invention will be described with reference to the drawings.

●語彙評価装置の概要
図1に示す語彙評価装置1は、対象者における言語の習得状況を評価する装置である。対象者は、例えば子供であり、特に言語発達障害を有する子供が想定されるが、発達障害の有無や程度は問わない。また、対象者は、認知症患者又は高齢者であってもよい。この場合、語彙評価装置1は、喪失する語彙を評価してもよい。なお、対象者は上述の特性又は疾病に限られず、あらゆる年齢のあらゆる人に適用可能である。
Overview of the Vocabulary Evaluation Device The vocabulary evaluation device 1 shown in FIG. 1 is a device for evaluating the language acquisition status of a subject. The subject is, for example, a child, and in particular a child with a language development disorder is assumed, but the presence or absence of a developmental disorder and the degree of the developmental disorder are not important. The subject may also be a dementia patient or an elderly person. In this case, the vocabulary evaluation device 1 may evaluate vocabulary loss. Note that the subject is not limited to those with the above-mentioned characteristics or diseases, and can be applied to anyone of any age.

語彙評価装置1は、複数の端末2と相互に通信することで、対象者を取り巻く複数の協力者又は協力施設を互いに連携させる。協力者は、例えば医療従事者又は言語聴覚士101や保護者102、学校の教師、療育施設の従事者等である。また、協力施設は、療育施設103や学校104、障害者が働く作業所等が想定できる。また、語彙評価装置1は、大学又は研究機関110からのデータを取得し、語彙の評価に随時反映できるようになっている。 The vocabulary evaluation device 1 communicates with multiple terminals 2 to link multiple collaborators or collaborating facilities surrounding the subject. The collaborators are, for example, medical professionals or speech-language-hearing therapists 101, guardians 102, school teachers, and staff at therapeutic facilities. The collaborating facilities can be therapeutic facilities 103, schools 104, and workshops where disabled people work. The vocabulary evaluation device 1 is also capable of acquiring data from universities or research institutes 110 and reflecting it in the vocabulary evaluation at any time.

図2に示すように、例えば、語彙評価装置1は、1もしくは複数の端末2がネットワークNWにより接続されることにより、語彙評価システム100を構成している。なお、語彙評価システム100は、音声を収集する場合には、後述する通り語彙の評価に限らず音声に含まれる情報を評価することもできるため、語彙および音声評価システムとも呼称できる。 As shown in FIG. 2, for example, the vocabulary evaluation device 1 is configured as a vocabulary evaluation system 100 by connecting one or more terminals 2 via a network NW. Note that when collecting audio, the vocabulary evaluation system 100 can evaluate not only vocabulary but also information contained in the audio, as described below, and therefore can also be called a vocabulary and audio evaluation system.

端末2は、例えば協力者が所持することを想定しているが、対象者自身が携帯してもよい。端末2は、例えばスマートホン、タブレット端末の他、パーソナルコンピュータであってもよい。端末2には、例えば語彙評価システム100を実現するアプリケーションソフトがインストールされ、ユーザがアプリケーションソフトを立ち上げることにより、語彙評価システム100に関する各機能を実行する。また、端末2は、アプリケーションソフトに代えて、インターネットブラウザを介して語彙評価システム100に関する機能の一部又は全部を実現してもよい。 Terminal 2 is assumed to be held by, for example, a collaborator, but may also be carried by the subject himself. Terminal 2 may be, for example, a smartphone, a tablet terminal, or a personal computer. Application software that realizes, for example, the vocabulary evaluation system 100 is installed on terminal 2, and each function related to the vocabulary evaluation system 100 is executed when the user launches the application software. Furthermore, terminal 2 may realize some or all of the functions related to the vocabulary evaluation system 100 via an internet browser instead of the application software.

端末2は、固有の識別情報を有する。端末2は、各協力者にハードウェア的にあらかじめ紐づけられている構成であってもよいし、所定のIDとパスワード等により協力者がログインすることで、協力者の情報と端末2の識別情報が紐づけられる構成でもよい。端末2の個数は、任意である。 The terminal 2 has unique identification information. The terminal 2 may be configured to be pre-linked to each collaborator in terms of hardware, or may be configured so that the collaborator's information is linked to the identification information of the terminal 2 when the collaborator logs in using a specific ID and password, etc. The number of terminals 2 is arbitrary.

また、語彙評価システム100には収音装置3が含まれていてもよい。収音装置3は、例えば協力施設を始めとする、対象者が利用する施設に配設されている。収音装置3は、語彙評価装置1との連携を目的に設置された装置の他、あらかじめ設置された適宜の装置が収音装置3の機能を果たしてもよい。収音装置3は、例えばマイクロホンである。また、収音装置3は、動画も撮影できるビデオカメラであってもよい。なお、収音装置3は、固定的に設置されている態様に限らず、対象者の発話を収音する任意の態様であってよい。収音装置3の個数は1個でも複数でもよく、収音装置3を含まない構成であってもよい。 The vocabulary evaluation system 100 may also include a sound collection device 3. The sound collection device 3 is installed in a facility used by the subject, such as a cooperating facility. The sound collection device 3 may be a device installed for the purpose of linking with the vocabulary evaluation device 1, or an appropriate device installed in advance may perform the function of the sound collection device 3. The sound collection device 3 is, for example, a microphone. The sound collection device 3 may also be a video camera that can also capture video. The sound collection device 3 is not limited to being installed in a fixed manner, and may be in any manner that collects the speech of the subject. The number of sound collection devices 3 may be one or more, and the configuration may not include a sound collection device 3.

本実施形態では、前提として、語彙評価装置1を具備するクライアント端末が複数存在してもよく、それらが離れた場所又は近い場所に存在して、それぞれのクライアント端末同士が通信をしてもよい。また、語彙評価装置1を具備するサーバ端末が存在し複数人又は1人のユーザがサーバ端末にアクセスすることによって語彙評価装置1を使用してもよい。 In this embodiment, it is assumed that there may be multiple client terminals equipped with the vocabulary evaluation device 1, and these may be located in distant or nearby locations, and the client terminals may communicate with each other. Also, there may be a server terminal equipped with the vocabulary evaluation device 1, and multiple users or one user may use the vocabulary evaluation device 1 by accessing the server terminal.

また、語彙評価装置1は、1個又は複数のハードウェア構成に分散されて構成されていてもよく、機能の一部又は全部がクラウドコンピュータ上に構成されていてもよい。語彙評価装置1の具体的な構成については、後述する。 The vocabulary evaluation device 1 may be configured in one or more distributed hardware components, and some or all of its functions may be configured on a cloud computer. The specific configuration of the vocabulary evaluation device 1 will be described later.

複数の端末2は、それぞれが1個の語彙評価装置1と接続されている。
端末2は、例えば、収音部21、入力部22、表示部23および位置情報取得部24を備える。
Each of the multiple terminals 2 is connected to one vocabulary evaluation device 1 .
The terminal 2 includes, for example, a sound pickup unit 21, an input unit 22, a display unit 23, and a position information acquisition unit 24.

収音部21は、例えばマイクロホンにより実現され、人の声を音声データとして収音する。音声データは、適宜の通信処理部により語彙評価装置1に送信される。なお、端末2が声紋識別機能を有し、当該機能を使用して、あらかじめ対象者の音声のみを格納したり、クラウド上などの後処理で声紋認証による個体識別を行い、語彙評価装置1に送信する構成であってもよい。この構成によれば、対象者以外の人の発話を除外できるので、プライバシーを担保できる。また、端末2が音声認識機能を有し、音声データを文字起こししてテキストデータとしたデータを語彙評価装置1に送信する構成であってもよい。 The sound collection unit 21 is realized by, for example, a microphone, and collects human voices as voice data. The voice data is transmitted to the vocabulary evaluation device 1 by an appropriate communication processing unit. The terminal 2 may have a voiceprint identification function, and may use this function to store only the subject's voice in advance, or to perform individual identification by voiceprint authentication in post-processing on the cloud, etc., and transmit the data to the vocabulary evaluation device 1. With this configuration, speech by people other than the subject can be excluded, thereby ensuring privacy. The terminal 2 may also have a voice recognition function, and may be configured to transcribe the voice data into text data and transmit the data to the vocabulary evaluation device 1.

入力部22は、ユーザからの入力を受け付ける機能部であり、例えばタッチパネルディスプレイやキーボードによる入力を受け付ける。ユーザは、例えば端末2の所持者である。端末2の所持者は、対象者との会話を収音する際に、入力部22を介して収音開始の命令を入力してもよい。 The input unit 22 is a functional unit that accepts input from a user, for example, via a touch panel display or a keyboard. The user is, for example, the owner of the terminal 2. When recording a conversation with a target person, the owner of the terminal 2 may input a command to start recording via the input unit 22.

また、入力部22は、ユーザにより入力される、対象者が使用した単語の入力を受け付ける。ユーザは、対象者の発話を聞いて使用された単語を把握し、端末2に入力する。この場合、入力部22は、ユーザからの自由入力を受け付けてもよいし、表示部23に表示される単語から選択入力を受け付ける構成でもよい。入力部22は、単語の入力と合わせて、当該単語が使用された時刻情報や位置情報、環境情報等の入力を受け付けてもよい。 The input unit 22 also accepts input of words used by the subject, input by the user. The user listens to the speech of the subject, identifies the words used, and inputs them into the terminal 2. In this case, the input unit 22 may accept free input from the user, or may be configured to accept selected input from words displayed on the display unit 23. In addition to the input of words, the input unit 22 may also accept input of time information, location information, environmental information, etc., when the words were used.

表示部23は、主として、対象者の言語の習得状況を表示する機能部である。言語の習得状況は、語彙評価装置1から適宜の通信処理部を介して受信される。複数の端末2の各表示部23には、同一の対象者の習得状況が表示可能であり、すなわち対象者の習得状況を協力者間で共有することができる。
表示部23は、例えば液晶ディスプレイ等により実現される。表示部23に表示される画面の例は後述する。
The display unit 23 is a functional unit that mainly displays the language acquisition status of the subject. The language acquisition status is received from the vocabulary evaluation device 1 via an appropriate communication processing unit. The acquisition status of the same subject can be displayed on each display unit 23 of the multiple terminals 2, that is, the acquisition status of the subject can be shared among collaborators.
The display unit 23 is realized by, for example, a liquid crystal display, etc. Examples of screens displayed on the display unit 23 will be described later.

位置情報取得部24は、対象者が発話した位置情報を取得する機能部である。位置情報取得部24は、例えば収音部21により収音を行った際の端末2の位置情報を取得する。位置情報取得部24は、GNSS(Global Navigation Satellite System、全地球測位システム)の受信機により場所の特定を行ってもよいし、別途の通信処理部により取得される緯度経度の情報や、端末2が有するIPアドレスなど、その他の手段で特定してもよい。また、位置情報取得部24は、端末2の入力部22に単語が入力された際の端末2の位置情報を取得してもよい。さらに、位置情報取得部24は、位置に関する情報がユーザにより入力部22を介して入力された場合に、当該情報を取得してもよい。 The location information acquisition unit 24 is a functional unit that acquires location information uttered by the subject. The location information acquisition unit 24 acquires location information of the terminal 2 when sound is collected by the sound collection unit 21, for example. The location information acquisition unit 24 may specify the location using a GNSS (Global Navigation Satellite System) receiver, or may specify the location using other means, such as latitude and longitude information acquired by a separate communication processing unit or an IP address owned by the terminal 2. The location information acquisition unit 24 may also acquire location information of the terminal 2 when a word is input into the input unit 22 of the terminal 2. Furthermore, the location information acquisition unit 24 may acquire information related to location when the information is input by the user via the input unit 22.

●語彙評価装置1の機能構成
語彙評価装置1は、メモリなどの記憶媒体、プロセッサ、通信モジュール、及び入力/出力インターフェース等で構成され、プロセッサが記憶媒体に記録されたコンピュータプログラムを実行することで、図2に示した機能ブロックを実現するようになっている。記憶媒体は、コンピュータ読み取り可能記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)のような記憶装置等を含んでよい。ここで、ROMやディスクドライブ、SSD、フラッシュメモリのような非一時的な記憶装置は、メモリとは区分される別の格納装置として語彙評価装置1に含まれてもよい。
Functional configuration of the vocabulary evaluation device 1 The vocabulary evaluation device 1 is composed of a storage medium such as a memory, a processor, a communication module, an input/output interface, etc., and the processor executes a computer program recorded in the storage medium to realize the functional blocks shown in Fig. 2. The storage medium is a computer-readable recording medium, and may include storage devices such as RAM (random access memory), ROM (read only memory), disk drives, SSDs (solid state drives), and flash memories. Here, non-transitory storage devices such as ROM, disk drives, SSDs, and flash memories may be included in the vocabulary evaluation device 1 as separate storage devices distinct from the memory.

語彙評価装置1は、上記したハードウェア構成により、主として、単語収集部11、音声処理部12、環境取得部13、分析部14、表示制御部15および記憶部50を具備する。なお、語彙評価装置1の構成の一部又は全部が、端末2のハードウェア構成により実現されていてもよい。 The vocabulary evaluation device 1 has the above-mentioned hardware configuration, and mainly includes a word collection unit 11, a voice processing unit 12, an environment acquisition unit 13, an analysis unit 14, a display control unit 15, and a storage unit 50. Note that part or all of the configuration of the vocabulary evaluation device 1 may be realized by the hardware configuration of the terminal 2.

語彙評価装置1は、所定のアプリケーションに組み込まれるコンピュータプログラムであってもよいし、所定のアプリケーションに適用可能なAPI(application programming interface)として提供されてもよい。 The vocabulary evaluation device 1 may be a computer program that is incorporated into a specific application, or may be provided as an API (application programming interface) that can be applied to a specific application.

記憶部50は、対象者の単語の習得状況の分析に必要な情報を記憶する機能部である。記憶部50は、例えば分析する言語および音声のデータベースを記憶する。当該データベースは、単語の品詞およびカテゴリを合わせて記憶している。また、データベースは、単語ごとに、難易度を記憶していてもよい。さらに、データベースは、各単語を習得する標準的な年齢又は目標年齢を記憶していてもよい。また記憶部50は、当該単語と結びつきの強い単語、いわゆる連結語句(コロケーション)の情報を記憶していてもよい。さらに、データベースは、収集した対象者の会話における文法の正確性を評価するために必要な情報を記憶していてもよい。このデータベースは、例えば大学又は研究機関110からの情報に応じて適宜アップデートが可能に構成されている。また、記憶部50は、発話量、発音、周波数、音量および抑揚の評価に必要な情報を記憶している。この情報は例えば、各項目の標準的な数値等、対象者から収集したデータと比較するための情報である。 The storage unit 50 is a functional unit that stores information necessary for analyzing the subject's vocabulary acquisition status. The storage unit 50 stores, for example, a database of the language and speech to be analyzed. The database stores the parts of speech and categories of the words together. The database may also store the difficulty level for each word. The database may also store the standard age or target age for acquiring each word. The storage unit 50 may also store information on words that are closely related to the word, so-called collocations. The database may also store information necessary for evaluating the accuracy of grammar in the collected conversation of the subject. This database is configured to be appropriately updated according to information from, for example, a university or research institute 110. The storage unit 50 also stores information necessary for evaluating the amount of speech, pronunciation, frequency, volume, and intonation. This information is, for example, information for comparing with data collected from the subject, such as standard numerical values for each item.

なお、上述したデータベースは、記憶部50に記憶される構成に代えて、適宜の外部装置に記憶されていて、語彙評価装置1が当該外部装置にアクセスすることで情報を取得する構成になっていてもよい。外部装置は、例えば大学又は研究機関110が管理するサーバであってもよい。 In addition, instead of being stored in the storage unit 50, the above-mentioned database may be stored in an appropriate external device, and the vocabulary evaluation device 1 may acquire information by accessing the external device. The external device may be, for example, a server managed by a university or research institute 110.

また、記憶部50は、対象者の声を識別するための情報をあらかじめ記憶していてもよい。この情報は、例えば声紋の情報である。後述する声紋識別部121は、この情報を参照し、収音された音源の中から対象者の声を抽出する。 The storage unit 50 may also store in advance information for identifying the voice of the subject. This information is, for example, voiceprint information. The voiceprint identification unit 121, which will be described later, refers to this information and extracts the subject's voice from the collected sound source.

さらに、記憶部50は、端末2の識別情報と端末2の所持者とを対応付けて記憶していてもよい。また、収音装置3が所定の場所に固定されている場合に、記憶部50は、収音装置3の識別情報と、収音装置3の位置情報とを対応付けて記憶していてもよい。 The storage unit 50 may also store the identification information of the terminal 2 in association with the owner of the terminal 2. In addition, when the sound collection device 3 is fixed to a predetermined location, the storage unit 50 may store the identification information of the sound collection device 3 in association with the location information of the sound collection device 3.

記憶部50は、単語収集部11、音声処理部12又は環境取得部13で取得した情報を記録してもよい。また、記憶部50は、分析部14により分析した結果を、履歴として記録してよい。分析結果には、例えば、発話量、発音、周波数、音量、抑揚等が含まれる。 The memory unit 50 may record information acquired by the word collection unit 11, the voice processing unit 12, or the environment acquisition unit 13. The memory unit 50 may also record the results of analysis by the analysis unit 14 as history. The analysis results include, for example, the amount of speech, pronunciation, frequency, volume, intonation, etc.

単語収集部11は、端末2を介して、対象者の発話に含まれる単語を収集する機能部である。
単語収集部11は、音声受信部111と、入力情報受信部112とを有する。
The word collection unit 11 is a functional unit that collects words contained in the target person's utterance via the terminal 2.
The word collection unit 11 includes a voice receiving unit 111 and an input information receiving unit 112 .

音声受信部111は、対象者の発話を含む音源を取得する。音声受信部111は、端末2により対象者の発話のみが抽出されている場合には、対象者の発話のみを受信してよい。また、端末2により音源がテキストデータに変換されたデータを受信してもよい。 The voice receiving unit 111 acquires a sound source including the speech of the target person. When only the speech of the target person is extracted by the terminal 2, the voice receiving unit 111 may receive only the speech of the target person. The voice receiving unit 111 may also receive data in which the sound source has been converted into text data by the terminal 2.

入力情報受信部112は、端末2の入力部22を介して入力される情報を受信する。入力情報受信部112は、例えばユーザが入力した、対象者の使用単語、および使用時刻等を受信する。 The input information receiving unit 112 receives information input via the input unit 22 of the terminal 2. The input information receiving unit 112 receives, for example, the words used by the subject and the time of use input by the user.

音声処理部12は、音声受信部111により取得される音源を処理し、対象者が使用した単語を抽出する機能部である。音声処理部12は、例えば、声紋識別部121と、音声認識部122と、を備える。 The voice processing unit 12 is a functional unit that processes the sound source acquired by the voice receiving unit 111 and extracts words used by the subject. The voice processing unit 12 includes, for example, a voiceprint identification unit 121 and a voice recognition unit 122.

声紋識別部121は、記憶部50を参照し、音声受信部111により取得された音源から、対象者による発話を識別する。この構成によれば、対象者が発話した内容のみを確実に分析できる。 The voiceprint identification unit 121 refers to the memory unit 50 and identifies the speech of the subject from the sound source acquired by the voice receiving unit 111. With this configuration, it is possible to reliably analyze only the content of the speech of the subject.

音声認識部122は、音声受信部111により取得した音源を音声認識し、当該音源に含まれる単語を抽出する。音声認識部122により抽出された単語は、分析部14により習得状況の分析に使用される。 The voice recognition unit 122 recognizes the sound source acquired by the voice receiving unit 111 and extracts words contained in the sound source. The words extracted by the voice recognition unit 122 are used by the analysis unit 14 to analyze the learning status.

環境取得部13は、端末2からの情報に基づいて、当該発話がなされた環境を取得する機能部である。例えば、環境取得部13は、発話を収音した端末2の識別情報を取得する。端末2は、例えば対象者と共にいる人物が保持している。したがって、発話を収音した端末2の識別情報を取得することで、対象者が誰と一緒にいるときに行った発話であるかを知る情報となり得る。対象者の1例に想定されている子供は、一人で行動せず、限られた大人と一緒に行動する可能性が高い。そのため、限られた特定の大人にあらかじめ端末2を所持してもらい、識別情報が明らかな端末2に収音を行わせることで、限られた大人のうち誰と一緒にいるときの会話であるかを簡便に判別できる。 The environment acquisition unit 13 is a functional unit that acquires the environment in which the utterance was made based on information from the terminal 2. For example, the environment acquisition unit 13 acquires identification information of the terminal 2 that picked up the utterance. The terminal 2 is held, for example, by a person who is with the subject. Therefore, acquiring the identification information of the terminal 2 that picked up the utterance can provide information on who the subject was with when the utterance was made. Children, who are assumed to be one example of subjects, are likely not to act alone but to act with a limited number of adults. Therefore, by having a limited number of specific adults carry the terminal 2 in advance and having the terminal 2 with clear identification information pick up the sound, it is possible to easily determine which of the limited number of adults the conversation was with.

環境取得部13は、端末2の位置情報を取得してもよい。発話を収音した端末2の位置情報を取得することで、対象者が発話した場所を判別できる。また、環境取得部13は、収音装置3の識別情報又は位置情報を取得してもよい。 The environment acquisition unit 13 may acquire location information of the terminal 2. By acquiring location information of the terminal 2 that picked up the speech, it is possible to determine the location where the subject spoke. In addition, the environment acquisition unit 13 may acquire identification information or location information of the sound collection device 3.

分析部14は、対象者における単語の習得状況又は音声に含まれる情報を分析する機能部である。
分析部14は、例えば単語ごとの習得状況を判定する。分析部14は、例えば、単語を使用した回数が多いほど、当該単語の習得レベルが高いと判定する。また、分析部14は、単語の連結語句の使用状況や、当該単語の前後の発話内容を解析し、文法の正確性を判定することで、当該単語を使いこなせているかを単語の習得レベルの判定に参酌してもよい。分析部14は、各単語の習得の有無を判定してもよい。分析部14は、習得レベルが所定以上の単語を習得済と判定してもよい。
The analysis unit 14 is a functional unit that analyzes the word acquisition status of a subject or information contained in the speech.
The analysis unit 14, for example, determines the acquisition status of each word. For example, the analysis unit 14 determines that the more times a word is used, the higher the acquisition level of the word. The analysis unit 14 may also take into consideration whether the word is used well in determining the acquisition level of the word by analyzing the usage status of the concatenated phrase of the word and the speech content before and after the word and determining the accuracy of the grammar. The analysis unit 14 may determine whether each word has been acquired. The analysis unit 14 may determine that a word with an acquisition level of a predetermined level or higher has been acquired.

分析部14は、対象者における単語の習得状況を、当該単語が収集された環境ごとに分析する。
分析部14は、同一の端末2で収集された単語を同一の環境で発話されたものとして、端末2の識別情報ごとに単語の習得状況を分析する。同一の端末2で収集された発話は、同一の協力者と一緒にいるか、当該協力者との会話でなされた発話であると推定できる。すなわち、単語を収集した端末2の識別情報は、発話が生じた環境を特定する情報の1例である。
The analysis unit 14 analyzes the subject's word acquisition status for each environment in which the word was collected.
The analysis unit 14 assumes that words collected on the same terminal 2 were spoken in the same environment, and analyzes the word acquisition status for each piece of identification information of the terminal 2. It can be assumed that utterances collected on the same terminal 2 were made when the user was with the same collaborator, or in a conversation with the collaborator. In other words, the identification information of the terminal 2 that collected the word is an example of information that specifies the environment in which the utterance occurred.

対象者が使用する語彙は、誰と一緒にいるか、又は誰と話しているかに応じて異なる可能性がある。すなわち例えば、親との会話ではリラックスしているために多様な単語を使用する一方で、教師との会話では緊張のために限定した単語しか使用しない場合がある。また、言語聴覚士との会話では、その日に教わった単語を使用する一方、当該単語の習得が十分でないために、親との会話では使用しない場合も考えられる。上記は一例であり、発話の様子は対象者の特性等により千差万別である。その点、端末2の識別情報ごとに習得状況を分析することで、単語の習得状況をより正確に評価することができる。 The vocabulary used by the subject may differ depending on who they are with or who they are talking to. For example, a subject may be relaxed and use a wide variety of words when talking to their parents, but may be nervous and use only a limited number of words when talking to a teacher. In addition, a subject may use the words they learned that day when talking to a speech-language-hearing therapist, but may not use those words when talking to their parents because they have not yet acquired those words sufficiently. The above is just one example, and speech patterns vary greatly depending on the characteristics of the subject. In this regard, the word acquisition status can be evaluated more accurately by analyzing the acquisition status for each identification information of terminal 2.

なお、分析部14は、同じ対象者に対して複数の端末2で収音された音源を比較し、同一の会話を収音した音源であるかを判定してもよい。分析部14は、同一の会話が別の端末2を介して重複して収音された場合には、一方の端末2からの音源の分析を行わないものとしてもよい。この構成によれば、重複した評価を防止し、より正確な評価ができる。また、分析部14は、同一の会話が複数の端末2で収音された場合には、いずれか一方の端末2のみで収音された場合とは区別して分析してもよい。 The analysis unit 14 may compare sound sources collected by multiple terminals 2 for the same subject and determine whether the sound sources are from the same conversation. When the same conversation is collected redundantly via different terminals 2, the analysis unit 14 may not analyze the sound source from one terminal 2. This configuration prevents redundant evaluation and allows for more accurate evaluation. Furthermore, when the same conversation is collected by multiple terminals 2, the analysis unit 14 may analyze it separately from when it is collected by only one terminal 2.

分析部14は、端末2の位置情報に基づいて、同一の場所で収集された単語を同一の環境で発話されたものとして、位置情報ごとに単語の習得状況を分析してもよい。すなわち、端末2の位置情報は、発話が生じた環境を特定する情報の別の例である。対象者の発話状況は、場所に応じても変化するためである。例えば、自宅と学校では発話に使用する単語に差異がある可能性がある。したがって、位置情報ごとに習得状況を分析することによっても、単語の習得状況をより正確に評価することができる。 The analysis unit 14 may analyze the word acquisition status for each piece of location information based on the location information of the terminal 2, assuming that words collected at the same place were spoken in the same environment. In other words, the location information of the terminal 2 is another example of information that identifies the environment in which the speech occurred. This is because the speech situation of the subject changes depending on the location. For example, there may be differences in the words used in speech at home and at school. Therefore, the word acquisition status can be more accurately evaluated by analyzing the acquisition status for each piece of location information.

分析部14は、端末2の識別情報と位置情報の双方に基づいて環境を区別し、当該環境ごとに単語の習得状況を分析してもよい。この構成によれば、対象者が誰とどこにいた場合の発話であるか、綿密な分析が可能である。 The analysis unit 14 may distinguish between environments based on both the identification information and location information of the terminal 2, and analyze the word acquisition status for each environment. This configuration allows for a detailed analysis of who the subject was with and where they were when the speech occurred.

分析部14は、単語を取得した端末2の所持者に応じて、習得状況の分析態様を異ならせてもよい。例えば、分析部14は、単語を取得した端末2の所持者が対象者である場合と、対象者でない場合とで、分析態様を異ならせてもよい。より具体的には、分析部14は、単語を取得した端末2の所持者が対象者でない場合には、当該端末2を介して取得された単語について端末2の識別情報ごとに習得状況を分析し、当該単語を取得した端末2の所持者が対象者である場合には、当該端末2を介して取得された単語については端末2の位置情報ごとに習得状況を分析する。 The analysis unit 14 may change the mode of analysis of the learning status depending on the holder of the terminal 2 that acquired the word. For example, the analysis unit 14 may change the mode of analysis depending on whether the holder of the terminal 2 that acquired the word is a target person or not. More specifically, if the holder of the terminal 2 that acquired the word is not a target person, the analysis unit 14 analyzes the learning status for each identification information of the terminal 2 for the word acquired via the terminal 2, and if the holder of the terminal 2 that acquired the word is a target person, the analysis unit 14 analyzes the learning status for each location information of the terminal 2 for the word acquired via the terminal 2.

対象者は、発話する上で、会話相手が誰であるかに大きな影響を受ける。したがって、会話相手が端末2の識別情報により特定できる場合には、端末2の識別情報ごとに分析を行うことで、会話相手ごとの分析を適切に行うことができる。また、対象者自身の端末2で発話が収集された場合には、会話相手の特定が困難であるから、会話相手に基づく分析に代えて、位置情報に基づく分析を行うことで、対象者の環境を考慮した分析が可能である。対象者が高齢者等の成人である場合には、自身の端末2での収集と、協力者の端末2による収集との両方が行われる可能性が高いところ、両者の情報を組み合わせて分析できる構成は一層利便性が高い。 When a subject speaks, the person who is speaking to him or her is greatly influenced by who the conversation partner is. Therefore, if the conversation partner can be identified by the identification information of the terminal 2, an analysis can be performed for each identification information of the terminal 2 to appropriately analyze each conversation partner. Furthermore, if the subject's speech is collected on the subject's own terminal 2, it is difficult to identify the conversation partner, so by performing an analysis based on location information instead of an analysis based on the conversation partner, it is possible to perform an analysis that takes the subject's environment into consideration. If the subject is an adult, such as an elderly person, it is highly likely that both collection will be performed on the subject's own terminal 2 and on the collaborator's terminal 2, and a configuration that can combine and analyze both sets of information is even more convenient.

分析部14は、上述の通り取得した複数の環境における単語の習得状況に基づいて、当該単語の習得状況を分析する。すなわち例えば、分析部14は、当該単語の習得レベルを環境ごとに算出し、複数の環境で習得レベルが所定以上である場合に、当該単語の総合的な習得レベルを所定値とする。また、よりシンプルな例では、分析部14は、当該単語が複数の環境で使用されていた場合に、当該単語を習得している旨判定する。また、分析部14は、対象者と紐づけられた全ての端末2で当該単語が収集された場合に、当該単語を習得している旨判定してもよい。分析部14は、対象者と紐づけられた全ての端末2で該単語の習得レベルが所定以上である場合に、当該単語を習得している旨判定してもよい。 The analysis unit 14 analyzes the acquisition status of the word based on the acquisition status of the word in multiple environments acquired as described above. That is, for example, the analysis unit 14 calculates the acquisition level of the word for each environment, and when the acquisition level in multiple environments is equal to or higher than a predetermined value, the overall acquisition level of the word is set to a predetermined value. In a simpler example, the analysis unit 14 determines that the word has been acquired when the word is used in multiple environments. The analysis unit 14 may also determine that the word has been acquired when the word is collected on all terminals 2 linked to the subject. The analysis unit 14 may also determine that the word has been acquired when the acquisition level of the word is equal to or higher than a predetermined value on all terminals 2 linked to the subject.

対象者が単語を複数の環境で使用していることは、対象者がその単語を確実に習得し、使いこなせているといえる。上述のような分析部14の構成によれば、単語の習得状況をより正確に評価することができる。 When a subject uses a word in multiple environments, it can be said that the subject has reliably mastered the word and is able to use it proficiently. With the above-described configuration of the analysis unit 14, it is possible to more accurately evaluate the word acquisition status.

分析部14は、習得している旨判定される単語、すなわち習得単語の数を算出する。また、分析部14は、対象者の単語ごとの使用頻度を抽出してもよい。 The analysis unit 14 calculates the number of words that are determined to have been mastered, i.e., the number of acquired words. The analysis unit 14 may also extract the frequency of use of each word by the subject.

また、分析部14は、対象者の総合的な習得状況を判定してもよい。例えば、分析部14は、習得レベルが所定以上の単語の個数に応じて、習得状況を判定する。また、分析部14は、言語のデータベースに格納されている各単語の難易度を参照し、習得レベルが所定以上又は習得済と判定された単語の難易度に応じて、習得状況を判定してもよい。また、分析部14は、単語の習得状況を品詞ごとに判定してもよい。また、分析部14は、単語とカテゴリが対応付けられる適宜のデータベースを参照して習得単語が属するカテゴリを抽出し、習得単語数をカテゴリごとに集計してもよい。カテゴリは、例えば「食べ物」や「乗り物」といった、単語が指し示すものの種類等により分類される。 The analysis unit 14 may also determine the overall learning status of the subject. For example, the analysis unit 14 may determine the learning status according to the number of words whose learning level is equal to or higher than a predetermined level. The analysis unit 14 may also refer to the difficulty level of each word stored in a language database and determine the learning status according to the difficulty level of words whose learning level is equal to or higher than a predetermined level or that are determined to have been acquired. The analysis unit 14 may also determine the learning status of words for each part of speech. The analysis unit 14 may also refer to an appropriate database in which words and categories are associated with each other to extract categories to which the acquired words belong, and tally up the number of acquired words for each category. Categories are classified according to the type of thing that the word indicates, such as "food" or "vehicle."

分析部14は、発話内容の文法の正確性を分析してもよい。文法の正確性は、「て」「に」「を」「は」等の助詞の正確性であってもよいし、接続詞の正確性等を分析してもよい。分析部14は、全体の発話量に対する正確な文法の発話割合を算出してもよい。文法のうち誤りの多い事項については、後述する表示制御部15により端末2に表示させてもよい。なお、文法が評価できるのは3語文以上の発話が前提であるから、分析部14により何語文の発話であるか判定してもよい。この場合、分析部14は、発話された単語間の空白時間を計測し、所定の空白時間以内に次の単語が発話されている場合には、1個の文章として発話されていると判定してよい。また、分析部14は、収集された発話が3語文以上である場合に、文法評価を行うものとしてもよい。また、分析部14は、会話の速度自体を言語の習熟度の1つとして分析に用いてもよい。 The analysis unit 14 may analyze the accuracy of the grammar of the utterance. The accuracy of the grammar may be the accuracy of particles such as "te", "ni", "wo", and "wa", or the accuracy of conjunctions. The analysis unit 14 may calculate the ratio of utterances with correct grammar to the total amount of utterance. Items with many grammatical errors may be displayed on the terminal 2 by the display control unit 15 described later. Note that, since grammar can be evaluated on the premise that the utterance is a sentence of three or more words, the analysis unit 14 may determine how many words the utterance is. In this case, the analysis unit 14 may measure the blank time between the uttered words, and if the next word is uttered within a predetermined blank time, it may determine that the utterance is made as one sentence. The analysis unit 14 may also perform grammar evaluation when the collected utterance is a sentence of three words or more. The analysis unit 14 may also use the speed of speech itself as one measure of language proficiency in the analysis.

さらに、分析部14は、対象者の発話の法則性を分析してもよい。分析部14は、当該対象者において関連性を持って発話される単語をデータベース化し、当該発話者独自の単語間の関連性やコロケーションの情報を分析する。この場合、分析部14は、例えば人工知能により行われるディープラーニングの手法、例えばマルコフ連鎖を用いた学習を行ってよい。例えば対象者に自閉傾向がある場合に、正確性の低い文法や、一見して内容的にまとまりのない発話をする場合がある。しかしながら、発話の法則性を分析することで、対象者なりの法則性を見出せる可能性がある。この構成によれば、自閉の特性をより詳細に分類できる。また、語用障害のスクリーニングや、障害の程度の評価又は分類が可能になり得る。ひいては、特性ごとにより適切な支援を行うことが可能である。また、発話の規則性を分析することで、当該対象者が捉えている物事の因果関係や各単語の外縁等、対象者の思考を理解する一助となり得る。その結果、対象者に則した支援が可能になる。 Furthermore, the analysis unit 14 may analyze the regularity of the speech of the subject. The analysis unit 14 creates a database of words that are spoken by the subject with a relationship, and analyzes the information on the relationship between words and collocations unique to the speaker. In this case, the analysis unit 14 may perform learning using a deep learning method performed by artificial intelligence, such as a Markov chain. For example, if the subject has a tendency toward autism, the subject may use grammar with low accuracy or may speak in a way that is seemingly disorganized. However, by analyzing the regularity of the speech, it is possible to find the subject's own regularity. With this configuration, the characteristics of autism can be classified in more detail. It may also be possible to screen for pragmatic disorders and evaluate or classify the degree of the disorder. In addition, it is possible to provide more appropriate support for each characteristic. In addition, analyzing the regularity of the speech may help understand the subject's thoughts, such as the causal relationships between things that the subject perceives and the boundaries of each word. As a result, support that is tailored to the subject is possible.

このような分析によれば、分析する言語聴覚士の力量のばらつきの影響を受けず、客観的な評価が可能である。また、人手を介さずに語彙力を把握できるので、発達検査のスクリーニングにも活用できる。 This type of analysis allows for an objective evaluation that is not affected by variations in the skills of the speech-language-hearing therapists performing the analysis. In addition, because vocabulary ability can be grasped without manual intervention, it can also be used for screening developmental tests.

分析部14は、音声に含まれる情報を分析してもよい。音声に含まれる情報は、例えば発話の明瞭度である。具体的には、分析部14は例えば対象者の発話音声の周波数特性を分析してもよい。この構成によれば、例えば所定の子音が強い、又は別の子音に聞こえる発音をする、といった傾向を把握できる。
分析部14は、対象者の発話音声の周波数特性と、あらかじめ定めた発話音声の周波数特性とを比較し、対象者の周波数特性の特徴を抽出する。あらかじめ定めた発話音声は、例えば多数の人の発話音声の平均であってもよいし、所定のモデルケースであってもよい。分析部14は、対象者の発話音声の周波数特性に応じて、対象者の得意な周波数帯域や不得意な周波数帯域を推定してもよい。また、分析部14は、対象者の周波数特性が所定の様子である場合に、難聴の可能性があるものと推定し、端末2に表示させてもよい。分析部14は、例えば、ある閾値以上の割合で発話される周波数帯域、又は別の閾値以下の割合でしか発話されない周波数帯域がある場合に、対象者に難聴の可能性があると推定してもよい。この構成によれば、言語聴覚士が難聴の可能性を考慮することなく訓練を行う場合であっても、難聴のスクリーニングが可能になる。
発話内容の文法の正確性、発話の法則性、発音の明瞭度といった、分析部14が行う各分析は、前述した習得状況の分析と同様に、環境ごとに行われてもよい。また、期間、時間帯又は場所など、任意の単位で分析が行われてもよい。
The analysis unit 14 may analyze information included in the voice. The information included in the voice is, for example, the clarity of speech. Specifically, the analysis unit 14 may analyze, for example, the frequency characteristics of the speech of the subject. With this configuration, it is possible to grasp, for example, a tendency that a certain consonant is strong, or that the pronunciation sounds like a different consonant.
The analysis unit 14 compares the frequency characteristics of the speech of the subject with the frequency characteristics of a predetermined speech, and extracts the characteristics of the frequency characteristics of the subject. The predetermined speech may be, for example, an average of the speech of many people, or may be a predetermined model case. The analysis unit 14 may estimate the frequency bands that the subject is good at and bad at according to the frequency characteristics of the speech of the subject. In addition, the analysis unit 14 may estimate that the subject may have hearing loss when the frequency characteristics of the subject are in a predetermined state, and may display this on the terminal 2. The analysis unit 14 may estimate that the subject may have hearing loss when, for example, there is a frequency band that is spoken at a rate above a certain threshold, or a frequency band that is spoken only at a rate below another threshold. With this configuration, it is possible to screen for hearing loss even when a speech-language-hearing therapist performs training without considering the possibility of hearing loss.
Each analysis performed by the analysis unit 14, such as the grammatical accuracy of the speech content, the regularity of speech, and the clarity of pronunciation, may be performed for each environment, as in the above-mentioned analysis of the learning situation. Furthermore, the analysis may be performed for any unit, such as a period, a time period, or a place.

表示制御部15は、分析部14により分析される対象者の習得状況を、端末2に表示させる機能部である。表示制御部15は、例えば、対象者に紐づけられている端末2に対して、当該対象者の習得状況を表示させる。例えば、対象者とあらかじめ紐づけられたアカウントにログインすると、ログインされた端末2に習得状況が表示されてもよい。この構成によれば、同一の対象者を支援する協力者同士で、対象者の習得状況を簡便かつほぼリアルタイムに共有することができる。
表示制御部15により表示される具体的な態様は、後述する。
The display control unit 15 is a functional unit that displays the learning status of the subject analyzed by the analysis unit 14 on the terminal 2. The display control unit 15, for example, displays the learning status of the subject on the terminal 2 linked to the subject. For example, when logging in to an account linked in advance to the subject, the learning status may be displayed on the logged-in terminal 2. With this configuration, the learning status of the subject can be easily shared almost in real time between collaborators supporting the same subject.
A specific aspect of the display by the display control unit 15 will be described later.

●画面例
図3および図4を用いて、端末2に表示される画面の例について説明する。
図3(a)~(d)に示す画面G1~G4は、スマートホンやタブレット端末等、協力者が所有する端末2に表示される画面の例である。端末2は、例えば所定のログイン処理を介して協力者と紐づけられ、対象者からの検出結果を記憶部50から取得し、画面上に表示する。
Screen Examples Examples of screens displayed on the terminal 2 will be described with reference to FIGS.
3A to 3D are examples of screens displayed on a terminal 2 owned by a collaborator, such as a smartphone or a tablet terminal. The terminal 2 is linked to the collaborator via, for example, a predetermined login process, and obtains the detection results from the subject from the storage unit 50 and displays them on the screen.

図3(a)に示す画面G1は、端末2のユーザである協力者が、対象者が使用した単語を登録する登録画面の一例を示す図である。画面G1は、例えば、ユーザが端末2上でログインをし、必要に応じて対象者を選択することで表示される。また、別途のメニュー画面を介して、単語登録ボタン等を選択することで表示されてもよい。 Screen G1 shown in FIG. 3(a) is a diagram showing an example of a registration screen on which a collaborator, who is a user of terminal 2, registers words used by a subject. Screen G1 is displayed, for example, when a user logs in on terminal 2 and selects a subject as necessary. Screen G1 may also be displayed by selecting a word registration button or the like via a separate menu screen.

画面G1には、主として、検索欄G11および品詞選択欄G12が表示されている。検索欄G11は、ユーザが登録しようとする単語を入力する欄である。例えば、検索欄G11に単語を入力して検索を実行すると、記憶部50に格納されたデータベースを参照し、同一又は類似の単語が検索結果として画面上に表示される。ユーザが、当該検索結果から1個の単語を選択することで、当該単語の使用実績が対象者に紐づけられて登録される。 Screen G1 mainly displays a search field G11 and a part of speech selection field G12. The search field G11 is a field where the user inputs the word they wish to register. For example, when a word is input into the search field G11 and a search is performed, the database stored in the memory unit 50 is referenced, and identical or similar words are displayed on the screen as search results. When the user selects one word from the search results, the word's usage history is linked to the target user and registered.

図3(b)に示す画面G2は、検出結果を月次表示する画面の例である。画面G2では、対象者の単語習得状況を示すグラフG21、および習得済みの単語リストG22等が表示されている。グラフG21では、対象者が習得済と判定された所定の品詞(図3(b)においては形容詞)の個数や、当該対象者の年齢での標準的な習得単語数、又は目標単語数と、この単語数に対する習得済単語数の割合、すなわち習得率が表示されるとともに、この割合を視覚的に表す円環が表示されている。円環は全周が100%を示し、円環に重畳して描かれる太い部分円環により習得率を示している。 Screen G2 shown in FIG. 3(b) is an example of a screen that displays the detection results monthly. Screen G2 displays a graph G21 showing the subject's vocabulary acquisition status, a list G22 of acquired words, and the like. Graph G21 displays the number of predetermined parts of speech (adjectives in FIG. 3(b)) that the subject has been determined to have acquired, the standard number of words to be acquired for the subject's age, or the target number of words, and the ratio of the number of words acquired to this number, i.e., the acquisition rate, as well as a ring that visually represents this ratio. The entire circumference of the ring represents 100%, and the acquisition rate is indicated by a thick partial ring drawn superimposed on the ring.

図3(c)に示す画面G3は、習得された単語数を月ごとに計数して示した棒グラフが表示されている。この表示によれば、対象者が多くの単語を習得した時期が協力者にとって明確である。 Screen G3 shown in Figure 3(c) displays a bar graph showing the number of words acquired by month. This display makes it clear to the participant when the subject acquired many words.

図3(d)に示す画面G4には、習得された単語数が折れ線グラフで表示されている。例えば、習得された単語を品詞ごとに計数し、グラフ化してもよい。 The number of words acquired is displayed in a line graph on screen G4 shown in FIG. 3(d). For example, the number of words acquired may be counted by part of speech and graphed.

画面G1乃至G4によれば、対象者の語彙習得の様子を協力者間で共有することができる。すなわち、同じ対象者を支援する者同士で対象者の様子を正確に共有することができ、対象者への支援や養育を効果的なものとすることができる。例えば、協力者は、対象者が理解に窮している場合には、対象者が習得している語彙に言い換えて、すなわち翻訳して伝えることで、対象者に必要な情報を適切に伝えることができる。 Screens G1 to G4 allow collaborators to share the progress of the subject's vocabulary acquisition. In other words, those supporting the same subject can share the subject's progress accurately, making support and care for the subject more effective. For example, if the subject is having difficulty understanding something, the collaborator can properly convey the necessary information to the subject by paraphrasing it in the vocabulary that the subject has acquired, i.e., translating it.

図4(a)~(c)に示す画面G5は、端末2に表示される画面の別の例であって、1個の単語に対して複数環境での習得状況を評価し、当該習得状況を表示する画面の1例である。画面G5は「ありがとう」との単語の習得状況を示している。また、この実施形態では、3個の環境において評価する例を示している。例えば、3個の端末2により対象者の発話を収集し、収集した端末2の識別情報ごとに分析し、評価することを想定している。画面G5には、対象の単語および習得状況を示す円環を含むグラフG51が表示されている。 Screen G5 shown in Figures 4(a) to (c) is another example of a screen displayed on terminal 2, and is an example of a screen that evaluates the acquisition status in multiple environments for one word and displays the acquisition status. Screen G5 shows the acquisition status of the word "thank you." This embodiment shows an example of evaluation in three environments. For example, it is assumed that the subject's utterances are collected using three terminals 2, and are analyzed and evaluated for each identification information of the collected terminals 2. A graph G51 including a circle showing the target word and the acquisition status is displayed on screen G5.

図4(a)は、3個の端末2のうち1個の端末2でのみ、「ありがとう」の使用又は習得が判定できた場合の画面である。すなわち、3分の1の環境でのみ使用又は習得が確認できているため、グラフG51の円環上には太い部分円環が全周の3分の1(120度)だけ重畳して表示されている。図4(b)は、3個の端末2のうち2個の端末2で使用又は習得が判定できた場合の画面であり、太い部分円環は全周の3分の2(240度)だけ重畳して表示されている。図4(c)は、3個の端末2のすべてで使用又は習得が判定できた場合の画面であり、グラフG51には太い円環が表示されている。 Figure 4(a) shows a screen when it was determined that "thank you" was used or learned on only one of the three terminals 2. In other words, since use or learning was confirmed in only one-third of the environments, a thick partial ring is displayed superimposed on the circle of graph G51 by one-third of the circumference (120 degrees). Figure 4(b) shows a screen when it was determined that use or learning was done on two of the three terminals 2, and a thick partial ring is displayed superimposed on two-thirds of the circumference (240 degrees). Figure 4(c) shows a screen when it was determined that use or learning was done on all three terminals 2, and a thick ring is displayed on graph G51.

●処理フロー(手動入力)
本実施形態に係る語彙評価装置1の処理方法の1例について、図5のシーケンス図を用いて説明する。ここでは、対象者が使用した単語を、協力者が手動入力する場合の処理フローを説明する。なお、以下の説明において、便宜上、端末2aは入力を受け付ける端末、端末2bは語彙評価装置1からの分析結果を表示する端末であるものとして説明するが、端末2aと端末2bは逆であってもよく、1個の端末2a又は2bが両方の処理を行ってもよい。また、下記の処理を行う前に、端末2上において各ユーザを認証するログイン処理が適宜行われてよい。
●Processing flow (manual input)
An example of a processing method of the vocabulary evaluation device 1 according to this embodiment will be described with reference to the sequence diagram of FIG. 5. Here, a processing flow will be described for the case where a collaborator manually inputs words used by a subject. In the following description, for convenience, the terminal 2a is described as a terminal that accepts input, and the terminal 2b is described as a terminal that displays the analysis results from the vocabulary evaluation device 1, but the terminals 2a and 2b may be reversed, or one terminal 2a or 2b may perform both processes. In addition, before performing the following processes, a login process for authenticating each user may be performed on the terminal 2 as appropriate.

端末2aは、語彙評価装置1に対して端末2aの識別情報を送信する(ステップS11)。また、端末2aは、使用された単語を登録する対象者の情報を送信する(ステップS12)。なお、端末2aにログインしたアカウントに紐づけられている対象者が1人である場合、ステップS12は省略できる。次いで、入力部22は、単語の入力を受け付け、端末2aから語彙評価装置1に送信される(ステップS13)。なお、ステップS11~S13は、順不同である。 The terminal 2a transmits identification information of the terminal 2a to the vocabulary evaluation device 1 (step S11). The terminal 2a also transmits information on the subject who will register the used word (step S12). Note that if there is only one subject linked to the account logged into the terminal 2a, step S12 can be omitted. Next, the input unit 22 accepts the input of the word, and transmits it from the terminal 2a to the vocabulary evaluation device 1 (step S13). Note that steps S11 to S13 are in no particular order.

次いで、語彙評価装置1は、分析部14により対象者における単語の習得状況を分析する(ステップS14)。 Next, the vocabulary evaluation device 1 analyzes the subject's word acquisition status using the analysis unit 14 (step S14).

次いで、語彙評価装置1は、ステップS11~S13において受信した情報、および分析結果を記憶部50に記録する(ステップS15)。 The vocabulary evaluation device 1 then records the information received in steps S11 to S13 and the analysis results in the memory unit 50 (step S15).

語彙評価装置1は、端末2a、又は入力を受け付けた端末2aとは異なる端末2bに分析結果の表示情報を送信し(ステップS16)、端末2a又は端末2bは、これを表示する(ステップS17、ステップS18)。なお、端末2aおよび端末2bへの表示処理ステップS16は、例えば各端末2a、2bからの表示命令(図示を省略)に応じて行われる。 The vocabulary evaluation device 1 transmits display information of the analysis result to the terminal 2a or to a terminal 2b different from the terminal 2a that received the input (step S16), and the terminal 2a or the terminal 2b displays it (steps S17 and S18). Note that the display process step S16 on the terminals 2a and 2b is performed in response to a display command (not shown) from each of the terminals 2a and 2b, for example.

●処理フロー(収音)
図6は、対象者が使用した単語を、収音した音源から抽出して分析する流れの1例を示す図である。なお、図5と同様の処理については、同じ符号を付し、説明を省略する。
● Processing flow (audio pickup)
6 is a diagram showing an example of a flow of extracting and analyzing words used by a subject from a collected sound source. Note that the same processes as those in FIG. 5 are given the same reference numerals and the description thereof will be omitted.

図6の処理フローにおいては、ステップS11およびステップS12に次いで、端末2の収音部21は、発話を収音する(ステップS23)。ステップS11、S12、S23は、順不同である。収音された音声は、語彙評価装置1に送信される。 In the process flow of FIG. 6, following steps S11 and S12, the sound pickup unit 21 of the terminal 2 picks up the speech (step S23). Steps S11, S12, and S23 are in no particular order. The picked up speech is transmitted to the vocabulary evaluation device 1.

次いで、語彙評価装置1の声紋識別部121は、音源から対象者の発話を抽出する(ステップS24)。次いで、語彙評価装置1の音声認識部122は、対象者の発話において使用されている単語を抽出する(ステップS25)。次いで、図5と同様、ステップS14~S18の処理が実行される。 Then, the voiceprint identification unit 121 of the vocabulary evaluation device 1 extracts the speech of the subject from the sound source (step S24). Next, the voice recognition unit 122 of the vocabulary evaluation device 1 extracts words used in the speech of the subject (step S25). Next, the processes of steps S14 to S18 are executed as in FIG. 5.

<本実施形態の効果>
本発明によれば、対象者の語彙力及び音声に含まれる情報を正確に評価することができる。より具体的には、対象者の単語の習得状況を、発話が行われた環境ごとに分析し、当該単語をどんな環境でも使いこなせているか否かを正確に判定することができる。さらに、この分析結果は、各環境で対象者の支援を行っている協力者に簡便かつほぼリアルタイムに共有される。この構成により、各協力者は別の環境における対象者の様子を把握することで、適切な支援を行うことができる。ひいては、対象者は快適かつ実効性の高い支援を受けることができる。
<Effects of this embodiment>
According to the present invention, it is possible to accurately evaluate the vocabulary of a subject and the information contained in the speech. More specifically, it is possible to analyze the word acquisition status of the subject for each environment in which the speech is made, and accurately determine whether the subject can use the word in any environment. Furthermore, the analysis results are easily shared almost in real time with the collaborators who are supporting the subject in each environment. With this configuration, each collaborator can provide appropriate support by understanding the state of the subject in a different environment. As a result, the subject can receive comfortable and highly effective support.

<本実施形態についての補足>
以上、実施形態に基づいて本発明を説明したが、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
<Supplementary Notes on the Present Embodiment>
While the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications and applications are possible within the scope of the gist of the present invention.

語彙評価システム100は、上述の他、対象者の声量を抽出し、対象者の体調や体力を推定してもよい。分析部14は、対象者の発話音量が次第に小さくなっている場合に、対象者の腹圧の低下、ひいては体力の衰えを検知してもよい。また、分析部14は、一時的な体調不良を検知するものとしてもよい。 In addition to the above, the vocabulary evaluation system 100 may extract the subject's voice volume and estimate the subject's physical condition and strength. When the subject's speech volume gradually decreases, the analysis unit 14 may detect a decrease in the subject's abdominal pressure and thus a decline in physical strength. The analysis unit 14 may also detect temporary poor physical condition.

語彙評価システム100は、上述の他、対象者の心理状態を検知することも可能である。この場合、語彙評価装置1が有する分析部14は、収集した音声の抑揚を検出し、抑揚の大きさが所定以下である場合に、対象者に抑うつ傾向があるものと推定してもよい。抑うつ傾向がある場合、無機質な話し方になった結果、言葉の抑揚が小さくなる傾向にあるためである。抑揚の幅は、例えば音声を所定の長さごとに周波数解析し、特定の大きさを有する周波数帯域幅が閾値以下である場合に、抑うつ傾向があると推定する。この閾値は、当該対象者の発話を連続的に収音して別の時点での帯域幅を算出し、この帯域幅に基づいて決定されてよい。また、分析部14は、抑揚の大きさに基づいて認知症の進行状況を検知してもよい。 In addition to the above, the vocabulary evaluation system 100 can also detect the psychological state of the subject. In this case, the analysis unit 14 of the vocabulary evaluation device 1 may detect the intonation of the collected voice, and if the magnitude of the intonation is equal to or less than a predetermined value, it may be assumed that the subject has a tendency to be depressed. This is because, when a person has a tendency to be depressed, they tend to speak in an impersonal manner, resulting in a smaller intonation of words. The width of the intonation is, for example, analyzed by frequency analysis of the voice for each predetermined length, and if the frequency bandwidth having a specific magnitude is equal to or less than a threshold value, it is assumed that the subject has a tendency to be depressed. This threshold value may be determined based on the bandwidth calculated by continuously collecting the speech of the subject and calculating the bandwidth at different points in time. The analysis unit 14 may also detect the progression of dementia based on the magnitude of the intonation.

また、分析部14は、単語が表す概念のポジティブ性をあらかじめ記憶したデータベースを参照し、対象者の発話がポジティブ、明朗又は前向きな印象を与えるものであるか、ネガティブで暗い、後ろ向きな印象を与えるものであるかを分析してもよい。ポジティブ性は、ポジティブかネガティブかそれ以外かの3択の他、数値化されて記憶されていてもよい。分析部14は、ポジティブな単語とネガティブな単語の比率を算出し、発話全体のポジティブ性の指数を算出してよい。ポジティブな単語、又はポジティブ性の高い単語が多く含まれる発話をしている人は、前向きな心理状態であることが推定できる。この構成によれば、心理状態に則した適切な支援を行うこともできる。 The analysis unit 14 may also refer to a database that stores in advance the positivity of concepts represented by words, and analyze whether the subject's speech gives a positive, bright, or forward-looking impression, or a negative, gloomy, or pessimistic impression. Positivity may be stored as a numerical value, in addition to being given as a three-choice option of positive, negative, or other. The analysis unit 14 may calculate the ratio of positive words to negative words, and calculate an index of positivity for the entire speech. It can be estimated that a person whose speech contains many positive words or words with a high degree of positivity is in a positive psychological state. With this configuration, appropriate support can be provided in accordance with the psychological state.

なお、分析部14は、所定の対象者に代えて、収音された複数人の発話内容を分析し、会話全体のポジティブ性を推定してもよい。会話全体にポジティブな単語が多用されているほど、会話がポジティブな雰囲気で進行しているものと推定できる。例えば、グループワークの実施時に、当該グループの発話内容を分析し、グループワークの雰囲気を数値化できる。なおこのとき、分析部14は、発話内容に代えて、音量のみを分析に用いてもよいし、所定の周波数の音声のみを分析してもよい。このような構成によれば、会話のプライバシーが保たれる。 The analysis unit 14 may analyze the recorded speech of multiple people instead of a specific subject, and estimate the positivity of the entire conversation. The more positive words are used throughout the conversation, the more likely it is that the conversation is proceeding in a positive atmosphere. For example, when group work is being carried out, the speech of the group can be analyzed and the atmosphere of the group work can be quantified. In this case, the analysis unit 14 may analyze only the volume of the speech instead of the speech, or may analyze only sounds of a specific frequency. With this configuration, the privacy of the conversation is maintained.

分析部14は、複数人の発話内容を分析する場合に、会話に参加している人の識別情報と、単語又は発話全体のポジティブ性とに基づいて、会話に参加している人同士の相性を推定してもよい。すなわち、ポジティブな雰囲気で会話している人は、相性が良く、仲が良いものと推定できる。このような構成によれば、人が会話を直接聞き、相性を評価しなくても、プライバシーを保ちながら相性を推定できる。この構成は、例えば通所デイサービスや特別養護老人ホーム等において、利用者の心理的な様子を把握する必要がある場合にも有用である。もちろん、保育所や幼稚園、学校、病院等においても適用可能である。 When analyzing the content of speech by multiple people, the analysis unit 14 may estimate the compatibility between the people participating in the conversation based on the identification information of the people participating in the conversation and the positivity of the words or the overall speech. In other words, people who converse in a positive atmosphere can be estimated to have good compatibility and be on good terms. With this configuration, compatibility can be estimated while maintaining privacy, without a person having to directly listen to the conversation and evaluate compatibility. This configuration is also useful when it is necessary to understand the psychological state of users, for example, in day care centers or special nursing homes for the elderly. Of course, it can also be applied to daycare centers, kindergartens, schools, hospitals, etc.

さらに、分析部14は、対象者の一時的な心理状態に限らず、長期間にわたり収集した対象者の発話内容に基づいて、対象者の性格を推定してもよい。特に、分析部14は、対象者が比較的ポジティブな性格であるか、ネガティブな性格であるかを推定できる。また、多数の人の性格を推定することにより、相性の良い性格の相手を抽出して提示する、結婚相手や恋人、友達、チーム編成その他のマッチング装置に応用することもできる。なお、本実施形態では性格を、ポジティブかネガティブかに大別するものとしたが、各単語の表す印象を細分化することにより、より細かい性格分析が行えるようになっていてもよい。 Furthermore, the analysis unit 14 may estimate the personality of the subject based on the content of the subject's utterances collected over a long period of time, rather than being limited to the subject's temporary psychological state. In particular, the analysis unit 14 can estimate whether the subject has a relatively positive or negative personality. In addition, by estimating the personalities of many people, the system can be applied to a matching device for marriage partners, lovers, friends, team formation, and other purposes, which extracts and presents people with compatible personalities. Note that in this embodiment, personalities are broadly classified as positive or negative, but a more detailed personality analysis may be performed by subdividing the impression expressed by each word.

さらにまた、分析部14により例えば書籍に記載されている文章のポジティブ性をあらかじめ算出し、データベース化しておくこともできる。すなわち、分析部14の構成によれば、書籍のポジティブ性が数値化できる。さらに、分析部14により分析した対象者の心理状態と、書籍のポジティブ性とを参照し、対象者にお勧めの書籍を抽出することもできる。この場合、対象者の心理状態と近しいポジティブ性の書籍を抽出してもよいし、対象者の心理状態がネガティブの場合にはポジティブな内容の書籍をお勧めとして抽出し、提示するように構成されてもよい。この構成によれば、対象者は、自分の状態や性格に合わせた本を選定することができる。 Furthermore, the analysis unit 14 can calculate the positivity of sentences in books, for example, in advance and store them in a database. That is, the configuration of the analysis unit 14 allows the positivity of a book to be quantified. Furthermore, books recommended to the subject can be extracted by referring to the subject's psychological state analyzed by the analysis unit 14 and the positivity of the book. In this case, books with positivity close to the subject's psychological state may be extracted, or if the subject's psychological state is negative, books with positive content may be extracted and presented as recommendations. With this configuration, the subject can select a book that matches their own state and personality.

上述の構成は、歌の歌詞のポジティブ性をあらかじめ算出してデータベースに記憶しておき、対象者の心理状態に基づくお勧めの歌を抽出する構成にも適用できる。例えば音楽配信サービスと連携させることにより、対象者の心理状態に合った歌を自動で再生することもできる。また、書籍および歌に限らず、テレビ番組、映画、映像作品、ラジオ、ならびにClubhouse(登録商標)およびTwitter(登録商標)等の投稿等、言葉を用いたあらゆる対象とのマッチングが可能である。 The above-mentioned configuration can also be applied to a configuration in which the positivity of song lyrics is calculated in advance and stored in a database, and recommended songs are extracted based on the psychological state of the subject. For example, by linking with a music distribution service, it is possible to automatically play songs that match the psychological state of the subject. In addition to books and songs, it is possible to match with any object using words, such as television programs, movies, video works, radio, and posts on Clubhouse (registered trademark) and Twitter (registered trademark), etc.

さらに、対象者の性格や心理状態を多数収集することにより、マーケティングデータとして用いることもできる。この場合、地域や世代、性別その他の属性と合わせて分析することで、人々の状態をマクロに観察し、分析することもできる。 Furthermore, by collecting a large amount of information about the subjects' personalities and psychological states, it can also be used as marketing data. In this case, by analyzing this data in conjunction with region, generation, gender, and other attributes, it is possible to observe and analyze people's conditions on a macro level.

100 語彙評価システム
1 語彙評価装置
11 単語収集部
111 音声受信部
112 入力情報受信部
12 音声処理部
13 環境取得部
14 分析部
15 表示制御部
50 記憶部
2 端末
2a 端末
2b 端末
21 収音部
22 入力部
23 表示部
24 位置情報取得部
3 収音装置

REFERENCE SIGNS LIST 100 Vocabulary evaluation system 1 Vocabulary evaluation device 11 Word collection unit 111 Voice reception unit 112 Input information reception unit 12 Voice processing unit 13 Environment acquisition unit 14 Analysis unit 15 Display control unit 50 Storage unit 2 Terminal 2a Terminal 2b Terminal 21 Sound collection unit 22 Input unit 23 Display unit 24 Position information acquisition unit 3 Sound collection device

Claims (10)

通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集手段と、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段と、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析手段と、
を有する、
語彙評価装置。
A word collecting means for collecting words included in the speech of a subject via a terminal communicably connected thereto;
an environment acquisition means for acquiring an environment in which the utterance was made based on information from the terminal;
an analysis means for analyzing the word acquisition status of the subject for each of the environments;
having
Vocabulary assessment device.
前記単語収集手段は、前記端末により収音された、前記発話を含む音源を取得する音声受信手段を有し、
前記語彙評価装置は、前記音源を音声認識し、前記音源に含まれる前記単語を抽出する音声認識手段をさらに有する、
請求項1記載の語彙評価装置。
the word collecting means includes a voice receiving means for acquiring a sound source including the speech, the sound being collected by the terminal;
The vocabulary evaluation device further includes a speech recognition unit that recognizes the speech source and extracts the words included in the speech source.
The vocabulary assessment device of claim 1.
前記対象者の声を識別するための情報をあらかじめ記憶する記憶手段と、
前記記憶手段を参照し、前記音声受信手段により取得された音源から、前記対象者による発話を識別する声紋識別手段と、
をさらに有する、
請求項2記載の語彙評価装置。
A storage means for storing in advance information for identifying the voice of the subject;
a voiceprint identification means for referring to the storage means and identifying a speech made by the subject from a sound source acquired by the voice receiving means;
Further comprising
The vocabulary assessment device according to claim 2.
前記単語収集手段は、前記端末を介して入力される前記単語を受信する入力情報受信手段を有する、
請求項1記載の語彙評価装置。
the word collecting means has an input information receiving means for receiving the words input via the terminal;
The vocabulary assessment device of claim 1.
前記環境取得手段は、前記端末の識別情報を取得し、
前記分析手段は、同一の前記端末で収集された前記単語を、同一の前記環境で発話されたものとして、前記端末の識別情報ごとに、前記単語の習得状況を分析する、
請求項1記載の語彙評価装置。
The environment acquisition means acquires identification information of the terminal,
the analysis means analyzes the acquisition status of the words collected by the same terminal as if the words were spoken in the same environment for each of the identification information of the terminal.
The vocabulary assessment device of claim 1.
前記環境取得手段は、前記端末の位置情報を取得し、
前記分析手段は、前記位置情報に基づいて、同一の場所で収集された前記単語を、同一の前記環境で発話されたものとして、前記位置情報ごとに、前記単語の習得状況を分析する、
請求項1記載の語彙評価装置。
The environment acquisition means acquires location information of the terminal,
the analysis means analyzes the acquisition status of the words for each piece of location information, assuming that the words collected at the same place were uttered in the same environment based on the location information;
The vocabulary assessment device of claim 1.
前記単語収集手段は、1の前記対象者の発話に含まれる前記単語を複数の前記端末を介して収集するものであり、
少なくとも、前記端末の識別情報と前記端末の所持者とを対応付けて記憶する記憶手段をさらに有し、
前記環境取得手段は、前記端末の識別情報および位置情報を取得し、
前記分析手段は、
前記単語を取得した前記端末の前記所持者が前記対象者でない場合には、当該端末を介して取得された前記単語については前記端末の識別情報ごとに前記習得状況を分析し、
前記単語を取得した前記端末の前記所持者が前記対象者である場合には、当該端末を介して取得された前記単語については前記端末の位置情報ごとに前記習得状況を分析する、
請求項1記載の語彙評価装置。
the word collection means collects the words included in the utterance of one of the subjects via the multiple terminals;
Further comprising a storage means for storing at least the identification information of the terminal and the owner of the terminal in association with each other,
The environment acquisition means acquires identification information and location information of the terminal,
The analysis means includes:
If the possessor of the terminal through which the word was acquired is not the target person, the acquisition status of the word acquired through the terminal is analyzed for each identification information of the terminal;
When the possessor of the terminal through which the word was acquired is the subject, the acquisition status of the word acquired through the terminal is analyzed for each location information of the terminal.
The vocabulary assessment device of claim 1.
前記分析手段により分析される、前記単語の前記環境ごとの前記習得状況を、前記端末に表示させる表示制御手段をさらに有する、
請求項1乃至7のいずれかに記載の語彙評価装置。
The device further includes a display control means for displaying, on the terminal, the learning status for each of the environments of the words analyzed by the analysis means.
A vocabulary evaluation device according to any one of claims 1 to 7.
通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集ステップと、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得ステップと、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析ステップと、
を含む、
語彙評価方法。
A word collection step of collecting words included in the target person's utterance via a terminal communicatively connected to the target person;
an environment acquisition step of acquiring an environment in which the utterance was made based on information from the terminal;
an analysis step of analyzing the learning status of the word in the subject for each of the environments;
including,
Vocabulary assessment methods.
通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集命令と、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得命令と、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析命令と、
をコンピュータに実行させる、
語彙評価プログラム。


A word collection command for collecting words included in the speech of the subject via a terminal communicably connected thereto;
an environment acquisition command for acquiring an environment in which the utterance was made based on information from the terminal;
An analysis command for analyzing the word acquisition status of the subject for each environment;
to cause a computer to execute
Vocabulary assessment program.


JP2022167363A 2022-10-19 2022-10-19 Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program Pending JP2024060181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022167363A JP2024060181A (en) 2022-10-19 2022-10-19 Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022167363A JP2024060181A (en) 2022-10-19 2022-10-19 Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program

Publications (1)

Publication Number Publication Date
JP2024060181A true JP2024060181A (en) 2024-05-02

Family

ID=90828723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167363A Pending JP2024060181A (en) 2022-10-19 2022-10-19 Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program

Country Status (1)

Country Link
JP (1) JP2024060181A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025238820A1 (en) * 2024-05-16 2025-11-20 Ntt株式会社 Evaluation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025238820A1 (en) * 2024-05-16 2025-11-20 Ntt株式会社 Evaluation device

Similar Documents

Publication Publication Date Title
JP5604033B2 (en) Learning system and method using situation feedback
McKechnie et al. Automated speech analysis tools for children’s speech production: A systematic literature review
Kane et al. What we talk about: designing a context-aware communication tool for people with aphasia
Lynch et al. Listening
Plauche et al. Speech recognition for illiterate access to information and technology
Yousaf et al. A Novel Technique for Speech Recognition and Visualization Based Mobile Application to Support Two‐Way Communication between Deaf‐Mute and Normal Peoples
KR102444012B1 (en) Equine Disability Assessment Apparatus, Methods and Programs
Weidman et al. (Not) hearing happiness: Predicting fluctuations in happy mood from acoustic cues using machine learning.
KR102797874B1 (en) Method for screening psychiatric disorder based on voice and apparatus therefor
US20190279656A1 (en) Information presentation apparatus, information presentation method, and non-transitory computer readable medium
Gorman et al. MirrorMirror: A mobile application to improve speechreading acquisition
Siegert et al. How do we speak with Alexa: Subjective and objective assessments of changes in speaking style between HC and HH conversations
ES2751375T3 (en) Linguistic analysis based on a selection of words and linguistic analysis device
McNaney et al. StammerApp: Designing a mobile application to support self-reflection and goal setting for people who stammer
JP2024060181A (en) Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program
Loukina et al. Use of automated scoring in spoken language assessments for test takers with speech impairments
KR20130112581A (en) Voice training service providing method using smart device
Ovalle et al. Real-Time Transcriptionist Based on Artificial Intelligence to Facilitate Learning for People with Hearing Disabilities in Virtual Classes.
Júdice et al. Elderly speech collection for speech recognition based on crowd sourcing
Lukkarila Developing a conversation assistant for the hearing impaired using automatic speech recognition
Bohac et al. A cross-lingual adaptation approach for rapid development of speech recognizers for learning disabled users
Moore " I'm Having Trouble Understanding You Right Now": A Multi-DimensionalEvaluation of the Intelligibility of Dysphonic Speech
Srivastava et al. Multi-scenario dataset for speaker recognition
Kavanagh et al. Forensic voice comparison in Canada
Lakhmani et al. Guidelines for Collecting Laboratory Speech Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20251016