JP2019162288A - Determination value calculation device, method and program, and micro error occurrence determination device, method and program - Google Patents
Determination value calculation device, method and program, and micro error occurrence determination device, method and program Download PDFInfo
- Publication number
- JP2019162288A JP2019162288A JP2018052167A JP2018052167A JP2019162288A JP 2019162288 A JP2019162288 A JP 2019162288A JP 2018052167 A JP2018052167 A JP 2018052167A JP 2018052167 A JP2018052167 A JP 2018052167A JP 2019162288 A JP2019162288 A JP 2019162288A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- speed
- data
- time
- physical part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】マイクロエラーの発生又は非発生を自動的に判断することを可能にする。【解決手段】被験者が手段的日常生活活動の上記タスクを実行する間に、マイクロエラーが発生したと判断されたタイミングを、タスクを実行する指の速度のデータに関連づける。タスクを実行する指の速度の時系列データの内、マイクロエラーが発生したと判断されたタイミングを含むセグメントの速度の時系列データから、マイクロエラーが発生したと判定するための、指の非定常の動きを表す判定値を算出する。【選択図】図16An object of the present invention is to automatically determine occurrence or non-occurrence of a micro error. A timing at which it is determined that a micro error has occurred while a subject performs the task of the instrumental daily life activity is associated with data of the speed of a finger performing the task. From the time-series data of the speed of the finger performing the task, the time-series data of the speed of the segment including the timing at which it was determined that the micro-error occurred was determined, and the non-stationary state of the finger for determining that the micro-error occurred. Is calculated. [Selection diagram] FIG.
Description
本発明は、判定値算出装置、方法、及びプログラム、マイクロエラー発生判断装置、方法、及びプログラムに関する。 The present invention relates to a determination value calculation device, method, and program, and a micro error occurrence determination device, method, and program.
従来、軽度認知障害(MCI:Mild Cognitive Impairment)の患者と脳機能に障害がない健常者とを識別する方法やシステムは、認知機能の検査に焦点が当てられている。また、質問紙を用いた記憶検査(特許文献5)が提案されている。なお、関連する技術には、以下の特許文献1〜12がある Conventionally, methods and systems for distinguishing between patients with mild cognitive impairment (MCI) and healthy individuals without impaired brain function have focused on cognitive function testing. In addition, a memory test using a questionnaire (Patent Document 5) has been proposed. Related technologies include the following patent documents 1 to 12.
しかし、MCIの患者は、ADL(Activities of Daily Living:日常生活活動)よりも複雑で高次な動作群であるIADL(Instrumental Activities of Daily Living、手段的日常生活活動)において機能低下が見られることが分かってきている。MCIを特定する新たなスクリーニング指標として、行動指標に着目する必要性が示されてきている。 However, patients with MCI have a decline in function in IADL (Instrumental Activities of Daily Living), which is a complex and higher-order operation group than ADL (Activities of Daily Living). I know. As a new screening index for specifying MCI, the necessity of paying attention to an action index has been shown.
なお、ADL(日常生活活動)は、日常生活を営む上で、普通におこなっている行為、行動のことであり、具体的には、食事や排泄、整容、移動、入浴等の基本的な行動をさす。一方、IADL(手段的日常生活活動)は、ADL より複雑で高次な動作のことであり、具体的には、買い物、洗濯あるいは掃除等の家事全般、金銭管理、服薬管理、外出して乗り物に乗ること等の行動をさす。 In addition, ADL (Daily Life Activity) refers to actions and actions that are normally performed in daily life. Specifically, basic actions such as meals, excretion, preparation, movement, bathing, etc. Point. On the other hand, IADL (mean daily life activities) is a more complex and higher-order operation than ADL, specifically, housework such as shopping, washing or cleaning, money management, medication management, going out and vehicle An action such as riding a car.
上記行動指標の1つにマイクロエラー(Micro−error)と呼ばれるヒューマンエラーがある。マイクロエラーは、ADLやIADLを行う際に想定される間違いの動作とは区別される動作の淀みのことである。MCIの患者のマイクロエラーの発生頻度は健常者と有意差があることが分かっており、マイクロエラーはMCIの早期発見に有効な指標として着目されている。マイクロエラーには種々のタイプがあるが、代表的には、次の2つのタイプがある。第1に、不要なオブジェクトに手を伸ばして触れるが、触れた瞬間にオブジェクトから手を放して異なるオブジェクトへと手を伸ばすという、伸ばす&接触(Reach touch)タイプがある。例えば、コーヒーを作りながら、不要なゼリー瓶に手を伸ばして触れ、触れた瞬間に行動計画を変化させるというタイプである。第2に、不要なオブジェクトに手を伸ばし触れかけて、寸前で異なる対象に手を伸ばす行為に変更する、という手を伸ばす&非接触タイプ(Reach No−touch)がある。例えば、コーヒーを作りながら、不要なゼリー瓶に手を伸ばしたが触れず、その寸前で異なる対象に手を伸ばす、というタイプである。 One of the behavior indicators is a human error called micro-error. A micro error is a stagnation of an operation that is distinguished from an erroneous operation assumed when performing ADL or IADL. It is known that the frequency of occurrence of micro errors in patients with MCI is significantly different from that of healthy individuals, and micro errors are attracting attention as an effective index for early detection of MCI. There are various types of micro errors, but typically there are the following two types. First, there is a reach and contact (reach touch) type in which an undesired object is extended and touched, but at the moment of touching, the object is released and the hand is extended to a different object. For example, while making coffee, reach out and touch an unnecessary jelly bottle, and change the action plan at the moment of touching. Secondly, there is a reach-and-contact type (reach no-touch) in which a hand is reached and touched to an unnecessary object, and the action is changed to an action of reaching a different object on the verge. For example, while making coffee, you reach out to an unnecessary jelly bottle, but do not touch it, and reach out to a different object just before it.
しかし、現状ではマイクロエラーの識別はトレーニングを受けた観察者による動画観察法を用いて行われており、マイクロエラーの発生又は非発生を自動的に検出する技術は確立されていない。 However, at present, micro errors are identified using a moving image observation method by a trained observer, and a technique for automatically detecting the occurrence or non-occurrence of micro errors has not been established.
本開示の技術は、マイクロエラーの発生又は非発生を自動的に判断することを可能にするための判定値算出装置、方法、及びプログラム、マイクロエラーの発生又は非発生を自動的に判断することができるマイクロエラー発生判断装置、方法、及びプログラムを提供することを目的とする。 The technology of the present disclosure automatically determines whether or not a micro error has occurred by automatically determining whether or not a micro error has occurred. An object of the present invention is to provide a micro error occurrence determination apparatus, method, and program capable of performing the above.
上記目的を達成するため、本開示の技術の第1の態様は、被験者が所定の活動をするための環境を表示する表示部と、前記被験者の身体的部位の位置を計測する計測部と、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する速度算出部と、前記所定の活動を行う際に想定される間違いの動作とは区別される前記被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから、前記マイクロエラーが発生したと判定するための判定値を算出する判定値算出部と、を備えた判定値算出装置であって、前記判定値は、前記被験者の身体的部位の非定常の動きを表す値である。 In order to achieve the above object, a first aspect of the technology of the present disclosure includes a display unit that displays an environment for a subject to perform a predetermined activity, a measurement unit that measures the position of the physical part of the subject, Time-series data of the velocity of the physical part from the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit The speed calculation unit for calculating the time and the time of the speed within a predetermined range including a time when a micro error, which is an incorrect action of the subject, is distinguished from an erroneous action assumed when performing the predetermined activity A determination value calculation device that calculates a determination value for determining that the micro error has occurred from series data, wherein the determination value is a non-physical part of the subject. Stationary Is a value representing a tree.
表示部が、被験者が所定の活動をするための環境を表示し、計測部が、前記被験者の身体的部位の位置を計測する。速度算出部が、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する。判定値算出部が、前記所定の活動を行う際に想定される間違いの動作とは区別される前記被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから、前記マイクロエラーが発生したと判定するための判定値を算出する。 The display unit displays an environment for the subject to perform a predetermined activity, and the measurement unit measures the position of the physical part of the subject. From the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit, the speed calculation unit of the physical part Calculate time-series data of speed. Time-series data of the speed within a predetermined range including a time when a micro error, which is an erroneous action of the subject, is distinguished from an erroneous action assumed when the judgment value calculation unit performs the predetermined activity Then, a determination value for determining that the micro error has occurred is calculated.
前記判定値は、前記被験者の身体的部位の非定常の動きを表す値である。 The determination value is a value representing an unsteady movement of the physical part of the subject.
本開示の技術の第2の態様は、被験者が所定の活動をするための環境を表示する表示部と、前記被験者の身体的部位の位置を計測する計測部と、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する速度算出部と、所定の活動を行う際に想定される間違いの動作とは区別される被験者の動作の淀みであるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから予め算出された前記マイクロエラーが発生したと判定するための判定値と、前記速度算出部により算出された前記身体的部位の速度の時系列データとから、前記所定の動作をしようとした前記被験者の身体的部位に、前記マイクロエラーが発生したか否かを判断する判断部と、を備えたマイクロエラー発生判断装置であって、前記判定値は、前記被験者の身体的部位の非定常の動きを表す値である。 The second aspect of the technology of the present disclosure is displayed by the display unit that displays an environment for the subject to perform a predetermined activity, the measurement unit that measures the position of the physical part of the subject, and the display unit. A speed calculation unit that calculates time-series data of the speed of the physical part from data of positions measured in time series by the measurement unit of the physical part of the subject who has attempted the predetermined action in the environment; The micro calculated in advance from the time-series data of the speed in a predetermined range including the time when a micro error, which is a grudge of the subject's motion that is distinguished from an erroneous motion assumed when performing a predetermined activity, is generated From the determination value for determining that an error has occurred and the time-series data of the speed of the physical part calculated by the speed calculation unit, the physical part of the subject who tried to perform the predetermined action A determination unit that determines whether or not the micro error has occurred, and the determination value is a value that represents an unsteady movement of the physical part of the subject. .
表示部が、被験者が所定の活動をするための環境を表示し、計測部が、前記被験者の身体的部位の位置を計測する。速度算出部が、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する。判断部が、所定の活動を行う際に想定される間違いの動作とは区別される被験者の動作の淀みであるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから予め算出された前記マイクロエラーが発生したと判定するための判定値と、前記速度算出部により算出された前記身体的部位の速度の時系列データとから、前記所定の動作をしようとした前記被験者の身体的部位に、前記マイクロエラーが発生したか否かを判断する。 The display unit displays an environment for the subject to perform a predetermined activity, and the measurement unit measures the position of the physical part of the subject. From the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit, the speed calculation unit of the physical part Calculate time-series data of speed. The determination unit is calculated in advance from time-series data of the speed within a predetermined range including a time when a micro error, which is a grudge of the subject's motion that is distinguished from an erroneous motion assumed when performing a predetermined activity, is generated. From the determination value for determining that the micro error has occurred, and the time-series data of the speed of the physical part calculated by the speed calculation unit, the physical movement of the subject who tried to perform the predetermined action It is determined whether or not the micro error has occurred at the site.
前記判定値は、前記被験者の身体的部位の非定常の動きを表す値である。 The determination value is a value representing an unsteady movement of the physical part of the subject.
本開示の技術の第3の態様は、コンピュータを、第1の態様の前記速度算出部及び前記判定値算出部として機能させる判定値算出プログラムである。 A third aspect of the technology of the present disclosure is a determination value calculation program that causes a computer to function as the speed calculation unit and the determination value calculation unit of the first aspect.
本開示の技術の第3の態様は、コンピュータを、第2の態様の前記速度算出部及び前記判断部として機能させるマイクロエラー発生判断プログラムである。 A third aspect of the technology of the present disclosure is a micro error occurrence determination program that causes a computer to function as the speed calculation unit and the determination unit of the second aspect.
本開示の技術は、マイクロエラーの発生又は非発生を自動的に判断することを可能にすることができる。 The technology of the present disclosure can enable to automatically determine whether a micro error has occurred or not.
本開示の技術は、マイクロエラーの発生又は非発生を自動的に判断することができる。 The technology of the present disclosure can automatically determine whether a micro error has occurred or not.
図1には、データ処理装置100が示されている。図2(A)には、手段的日常生活活動(IADL:Instrumental Activities of Daily Living)の第1の環境を仮想空間に表現した第1の画像が示されている。図2(B)には、手段的日常生活活動の、第1の環境とは異なる第2の環境を仮想空間に表現した第2の画像が示されている。図3には、データ処理装置100のブロック図が示されている。 FIG. 1 shows a data processing apparatus 100. FIG. 2A shows a first image in which a first environment of instrumental daily activities of daily living (IADL) is expressed in a virtual space. FIG. 2B shows a second image in which a second environment different from the first environment of the instrumental daily life activity is represented in a virtual space. FIG. 3 shows a block diagram of the data processing apparatus 100.
図3に示すように、データ処理装置100は、人工現実感(VR:Virtual Reality)技術を用いて被験者が手段的日常生活活動をするための環境(IADL環境)を仮想空間に表現した画像(図2(A)又は図2(B))を表示するディスプレイ12(図1も参照)を備えている。 As shown in FIG. 3, the data processing apparatus 100 is an image (IADL environment) that expresses an environment (IADL environment) in which a subject conducts a means of daily life activity using a virtual reality (VR) technique (virtual reality) technology in a virtual space. A display 12 (see also FIG. 1) for displaying FIG. 2A or FIG. 2B is provided.
また、データ処理装置100は、三脚上の雲台からの支柱に取り付けられ、ディスプレイ12の画面に置かれた被験者の指の3次元位置を計測する3次元モーションセンサ16(図1も参照)を備えている。 Further, the data processing apparatus 100 is attached to a column from a pan head on a tripod, and includes a three-dimensional motion sensor 16 (see also FIG. 1) that measures the three-dimensional position of the subject's finger placed on the screen of the display 12. I have.
更に、データ処理装置100は、ディスプレイ12により表示された環境で所定の動作をしようとした被験者の指の3次元位置の時系列データからマイクロエラーが発生したと判定するための判定値を算出するコンピュータ10を備えている。なお、所定の動作とは、例えば、手段的日常生活活動における朝食や昼食の用意等である。コンピュータ10は、更に、算出された行動の判定値と、被験者の指の3次元位置とから、マイクロエラーが発生したか否かを判断する。 Furthermore, the data processing apparatus 100 calculates a determination value for determining that a micro error has occurred from the time-series data of the three-dimensional position of the subject's finger who has attempted a predetermined action in the environment displayed on the display 12. A computer 10 is provided. The predetermined operation is, for example, preparation of breakfast or lunch in means of daily life activities. The computer 10 further determines whether or not a micro error has occurred from the calculated action determination value and the three-dimensional position of the subject's finger.
詳細には後述するが、データ処理装置100の動作には、マイクロエラーが発生したと判定するための判定値を算出する第1の段階と、当該判定値を使用して、マイクロエラーが発生したか否かを判断する第2の段階とがある。データ処理装置100は、第1の段階では、判定値算出装置として機能し、第2の段階では、マイクロエラー発生判断装置として機能する。 As will be described in detail later, in the operation of the data processing apparatus 100, a first stage of calculating a judgment value for judging that a micro error has occurred and a micro error has occurred using the judgment value. There is a second stage for determining whether or not. The data processing device 100 functions as a determination value calculation device in the first stage, and functions as a micro error occurrence determination device in the second stage.
コンピュータ10は、CPU20、ROM22、RAM24、及び入出力インタフェース(I/O)26を備えている。CPU20、ROM22、RAM24、及び入出力インタフェース(I/O)26は、バス28を介して相互に接続されている。入出力インタフェース(I/O)26には、ディスプレイ12及び3次元モーションセンサ16が接続されている。コンピュータ10は、例えば、パーソナルコンピュータ(PC)により構成される。 The computer 10 includes a CPU 20, a ROM 22, a RAM 24, and an input / output interface (I / O) 26. The CPU 20, ROM 22, RAM 24, and input / output interface (I / O) 26 are connected to each other via a bus 28. A display 12 and a three-dimensional motion sensor 16 are connected to an input / output interface (I / O) 26. The computer 10 is configured by, for example, a personal computer (PC).
ROM22には、後述するデータ処理プログラム(図4)が記憶されている。データ処理プログラム(図4)は、ROM22から読み出され、RAM24に展開されて、CPU20によって実行される。 The ROM 22 stores a data processing program (FIG. 4) described later. The data processing program (FIG. 4) is read from the ROM 22, expanded in the RAM 24, and executed by the CPU 20.
次に、図4を参照して、データ処理装置100のCPU20がデータ処理プログラムを実行することで実現される各種機能について説明する。データ処理プログラムは、Data collection機能、Data cleansing機能、Segmentation機能、Feature extraction機能、及びClassification機能を備えている。CPU20がこの各機能を有するデータ処理プログラムを実行することで、CPU20は、図4に示すように、Data collection部32、Data cleansing部34、Segmentation部36、Feature extraction部38、及びClassification部40として機能する。 Next, various functions realized by the CPU 20 of the data processing apparatus 100 executing a data processing program will be described with reference to FIG. The data processing program has a Data collection function, a Data cleaning function, a Segmentation function, a Feature extraction function, and a Classification function. When the CPU 20 executes the data processing program having these functions, the CPU 20 is configured as a data collection unit 32, a data cleaning unit 34, a segmentation unit 36, a feature extraction unit 38, and a classification unit 40 as shown in FIG. Function.
次に、図5を用いて、データ処理装置100によるデータ処理を詳細に説明する。データ処理装置100のCPU20がデータ処理プログラム(判定値算出プログラム、マイクロエラー発生判断プログラム)を実行することで、図5のフローチャートに示されたデータ処理が実現される。 Next, data processing by the data processing apparatus 100 will be described in detail with reference to FIG. The CPU 20 of the data processing apparatus 100 executes the data processing program (determination value calculation program, micro error occurrence determination program), thereby realizing the data processing shown in the flowchart of FIG.
ディスプレイ12が、手段的日常生活活動(IADL)の環境を仮想空間に表現した画像(図2参照)を表示する。被験者が、図12に示すように指を動かして手段的日常生活活動の所定の動作であるタスク(例えば、ランチボックスの準備等)を被験者が実行する間、3次元モーションセンサ16が、所定時間毎に被験者の指の3次元位置を計測し、所定時間毎に、計測した3次元位置のデータを、コンピュータ10に送信する。 The display 12 displays an image (see FIG. 2) expressing the environment of instrumental daily life activities (IADL) in a virtual space. As shown in FIG. 12, while the subject performs a task (for example, preparation of a lunch box) which is a predetermined operation of the daily life activity by moving his / her finger, the three-dimensional motion sensor 16 performs a predetermined time. The three-dimensional position of the subject's finger is measured every time, and the measured three-dimensional position data is transmitted to the computer 10 every predetermined time.
図5のステップ102で、Data collection部32は、Data collection(データ収集)処理を実行し、ステップ104で、Data cleansing部34は、Data cleansing(データクレンジング)処理を実行する。ステップ106で、Segmentation部36は、Segmentation(セグメンテーション)処理を実行し、ステップ108で、Feature extraction部38は、Feature extraction(特徴抽出)処理を実行する。ステップ110で、Classification部40は、Classification(識別)処理を実行する。各処理の詳細は後述する。 In step 102 of FIG. 5, the data collection unit 32 executes data collection (data collection) processing, and in step 104, the data cleaning unit 34 executes data cleaning (data cleansing) processing. In step 106, the segmentation unit 36 executes a segmentation process, and in step 108, the feature extraction unit 38 executes a feature extraction (feature extraction) process. In step 110, the classification unit 40 executes a classification process. Details of each process will be described later.
図6には、Data collection処理のプログラムのフローチャートが示されている。 FIG. 6 shows a flowchart of the data collection processing program.
Data collection部32は、ステップ202で、3次元モーションセンサ16により被験者の指の3次元位置が検出された結果を取得する。Data collection部32は、ステップ204で、測定データ(指の3次元位置の時系列データ)をPCのメモリ(RAM24)に転送する。 The data collection unit 32 acquires the result of detecting the three-dimensional position of the subject's finger by the three-dimensional motion sensor 16 in step 202. In step 204, the data collection unit 32 transfers the measurement data (time series data of the three-dimensional position of the finger) to the memory (RAM 24) of the PC.
Data collection部32は、ステップ206で、PC(コンピュータ10)のディスプレイ12上で測定データを表示する。Data collection部32は、ステップ208で、3次元モーションセンサ16から、継続して一定時間、データが送信されなくなったか否かを判断することにより、測定が終了したか否かを判断する。なお、3次元モーションセンサ16からデータが送信されなくなるのは、被験者が、所定の活動を完了したと判断し、指を3次元モーションセンサ16の計測領域から外すことにより、生ずる。 In step 206, the data collection unit 32 displays measurement data on the display 12 of the PC (computer 10). In step 208, the data collection unit 32 determines whether or not the measurement is finished by determining whether or not data is continuously transmitted from the three-dimensional motion sensor 16 for a certain period of time. Note that data is not transmitted from the three-dimensional motion sensor 16 when the subject determines that the predetermined activity has been completed and removes the finger from the measurement region of the three-dimensional motion sensor 16.
測定が終了したと判断されなかった場合には、Data collection処理は、ステップ202に戻る。測定が終了したと判断された場合には、Data collection処理は、終了する。 If it is not determined that the measurement has been completed, the data collection process returns to step 202. If it is determined that the measurement has ended, the Data collection process ends.
図7には、Data cleansing処理のプログラムのフローチャートが示されている。 FIG. 7 shows a flowchart of a data cleaning process program.
Data cleansing部34は、ステップ212で、PC(コンピュータ10)のメモリ(RAM24)から、計測した情報(指の3次元位置のデータ)を取得する。 In step 212, the data cleaning unit 34 acquires the measured information (data of the three-dimensional position of the finger) from the memory (RAM 24) of the PC (computer 10).
Data cleansing部34は、ステップ214で、取得したデータから指の速度(本出願では、「速度」は、速度の絶対値をいい、向きを含まない)を算出する。Data cleansing部34は、ステップ216で、算出した速度の絶対値から確率分布を作成する。具体的には、Data cleansing部34は、速度の絶対値のヒストグラムを作成し、各速度の度数を全体の速度のデータ数で割ることにより、確率分布を作成する。ステップ216では更に、Data cleansing部34は、ディスプレイ12に作成した確率分布を表示する。 In step 214, the data cleaning unit 34 calculates the finger speed (in this application, “speed” refers to the absolute value of the speed and does not include the direction) from the acquired data. In step 216, the data cleaning unit 34 creates a probability distribution from the absolute value of the calculated speed. Specifically, the data cleaning unit 34 creates a histogram of absolute values of speeds, and creates a probability distribution by dividing the frequency of each speed by the number of data of the entire speed. In step 216, the data cleaning unit 34 further displays the created probability distribution on the display 12.
Data cleansing部34は、ステップ218で、標準偏差の2倍の値を超える速度のデータがあるか否かを判断する。ステップ218で肯定判定の場合、Data cleansing部34は、ステップ220で、外れ値を除去する。その後、Data cleansing処理はステップ212に戻る。 In step 218, the data cleaning unit 34 determines whether there is data having a speed exceeding a value twice the standard deviation. If the determination in step 218 is affirmative, the data cleaning unit 34 removes the outlier in step 220. Thereafter, the data cleaning process returns to step 212.
ステップ218が否定判定の場合、Data cleansing部34は、ステップ222で、算出した速度のデータが所定時間間隔に並ぶように補間処理を実行する。補間処理には、大きく分けて、第1の補間処理と、第2の補間処理とがある。第1の補間処理は、ステップ220で、除去された外れ値に対応する時刻の速度のデータを、当該時刻の前後の速度のデータで、補間する処理である。ところで、上記のように、3次元モーションセンサ16が、所定時間毎に、被験者の指の3次元位置のデータを、コンピュータ10に送信するが、何らかの原因で、データが欠落したり、所定時間間隔からずれていたりする場合がる。第2の補間処理は、欠落したデータや、所定時間間隔からずれているデータを、各時刻の前後の速度のデータで、補間する処理である。 If the determination in step 218 is negative, the data cleaning unit 34 performs an interpolation process in step 222 so that the calculated speed data is arranged at predetermined time intervals. Interpolation processing is roughly divided into first interpolation processing and second interpolation processing. The first interpolation process is a process of interpolating the speed data at the time corresponding to the removed outlier in step 220 with the speed data before and after the time. By the way, as described above, the three-dimensional motion sensor 16 transmits the data of the three-dimensional position of the subject's finger to the computer 10 at predetermined time intervals. It may be off from. The second interpolation process is a process of interpolating missing data or data deviating from a predetermined time interval with data of speeds before and after each time.
ステップ222の後、Data cleansing処理は終了する。Data cleansing処理により、図13に示すように、指の速度の時系列データが得られる。 After step 222, the data cleaning process ends. As shown in FIG. 13, time series data of finger speed is obtained by the data cleaning process.
図8には、Segmentation処理のプログラムのフローチャートが示されている。Segmentation部36は、ステップ230で、PC(コンピュータ10)のメモリ(RAM24)から速度のデータを取得する。Segmentation部36は、ステップ232で、速度のデータを2階微分する。Segmentation部36は、ステップ234で、2階微分したデータのゼロ交差点を検出する。Segmentation部36は、ステップ236で、負の領域から正の領域への変化点がゼロ交差点となっている点か否かを判断する。ステップ236が肯定判定の場合、Segmentation部36は、ステップ238で、セグメント点として保存する。その後、Segmentation処理はステップ240に進む。ステップ236が否定判定の場合、Segmentation処理は、ステップ240に進む。Segmentation部36は、ステップ240で、データ点の終端まで処理が終了したか否かを判断する。ステップ240が否定判定の場合、Segmentation処理はステップ230に戻る。ステップ240が肯定判定の場合、Segmentation処理は終了する。 FIG. 8 shows a flowchart of the segmentation processing program. In step 230, the segmentation unit 36 acquires speed data from the memory (RAM 24) of the PC (computer 10). In step 232, the segmentation unit 36 second-order differentiates the speed data. In step 234, the segmentation unit 36 detects the zero crossing point of the second-order differentiated data. In step 236, the segmentation unit 36 determines whether or not the changing point from the negative region to the positive region is a zero crossing point. If the determination in step 236 is affirmative, the segmentation unit 36 stores the segment point in step 238. Thereafter, the segmentation process proceeds to step 240. If the determination in step 236 is negative, the segmentation process proceeds to step 240. In step 240, the segmentation unit 36 determines whether the processing has been completed up to the end of the data point. If the determination in step 240 is negative, the segmentation process returns to step 230. If step 240 is positive, the segmentation process ends.
上記のように、手段的日常生活活動のタスクを実行するために、図12に示すように指を動かすが、手段的日常生活活動のタスクは、このように指を動かす動作が複数集まって、構成される。各動作における指の速度は、図14に示すように、速度0から徐々に大きくなり、ピークに達し、ピークに達した後、徐々に小さくなり、速度0となる。図8に示すSegmentation処理により、図13に示す指の速度の時系列データが、図15に示すように各動作のまとまりに分割される。 As described above, in order to execute the task of the instrumental daily life activity, the finger is moved as shown in FIG. 12, but the task of the instrumental daily life activity is composed of a plurality of actions for moving the finger in this way, Composed. As shown in FIG. 14, the speed of the finger in each operation gradually increases from speed 0, reaches a peak, and after reaching the peak, gradually decreases and reaches speed 0. By the segmentation process shown in FIG. 8, the time-series data of the finger speed shown in FIG. 13 is divided into a group of each operation as shown in FIG.
図9には、Feature extraction処理の第1の処理のプログラムのフローチャートが示されている。 FIG. 9 shows a flowchart of the first process program of the feature extraction process.
ところで、被験者が手段的日常生活活動の上記タスクを実行する間、マイクロエラーのコーディングのトレーニングをつんだ複数の研究者が、被験者の指の動きを観察して、マイクロエラーが発生したか否かを判断している。当該複数の研究者は、マイクロエラーが発生したと判断した場合、図示しない入力装置を介してマイクロエラー発生識別信号をPC(コンピュータ10)に入力する。コンピュータ10は当該マイクロエラー発生識別信号が入力されたタイミングを、図16に示すように、指の速度の時系列データに関連づける。図16に示す例では、2回、マイクロエラーが発生したことが示されている。 By the way, whether or not a micro error has occurred when multiple researchers who have been trained in micro error coding observe the movement of the subject's fingers while the subject performs the above-mentioned task of instrumental daily life activities. Judging. When it is determined that a micro error has occurred, the plurality of researchers input a micro error occurrence identification signal to the PC (computer 10) via an input device (not shown). The computer 10 associates the timing at which the micro error occurrence identification signal is input with time-series data of finger speeds as shown in FIG. In the example shown in FIG. 16, it is shown that the micro error has occurred twice.
図9のFeature extraction処理の第1の処理のプログラムがスタートすると、Feature extraction部38は、ステップ250で、1つのセグメンテーション区間の速度のデータを抽出する。Feature extraction部38は、ステップ252で、当該区間にマイクロエラー発生識別信号が関連付けられているか否かを判断することにより、マイクロエラー(ME)が発生した区間か否かを判断する。 When the program of the first process of the feature extraction process in FIG. 9 starts, the feature extraction unit 38 extracts the velocity data of one segmentation section in step 250. In step 252, the feature extraction unit 38 determines whether a micro error (ME) has occurred by determining whether a micro error occurrence identification signal is associated with the corresponding section.
ステップ252が肯定判定の場合、Feature extraction部38は、ステップ254で、MEが発生した区間の速度のデータを、メモリ(RAM24)のME発生区間記憶領域254Mに記憶する。ステップ252が否定判定の場合、Feature extraction部38は、ステップ256で、MEが発生していない区間の速度のデータを、メモリ(RAM24)のME非発生区間記憶領域256Mに記憶する。ステップ254、256の後は、Feature extraction部38は、ステップ258で、終端のセグメンテーション区間まで処理が終了したか否かを判断する。ステップ258が否定判定の場合、Feature extraction処理は、ステップ250に戻る。ステップ258が肯定判定の場合、Feature extraction処理は、終了する。 If step 252 is affirmative, the feature extraction unit 38 stores the speed data of the section in which the ME has occurred in the ME generation section storage area 254M of the memory (RAM 24) in step 254. When the determination at step 252 is negative, the feature extraction unit 38 stores the speed data of the section where the ME is not generated in the ME non-occurrence section storage area 256M of the memory (RAM 24) at step 256. After steps 254 and 256, the feature extraction unit 38 determines in step 258 whether or not the processing has been completed up to the terminal segmentation section. If step 258 is negative, the feature extraction process returns to step 250. If step 258 is positive, the feature extraction process ends.
図10には、Feature extraction処理の第2の処理のプログラムのフローチャートが示されている。Feature extraction部38は、ステップ262で、ME非発生区間記憶領域256Mに記憶されている、MEが発生していない区間の速度のデータにおけるセグメント区間の速度のデータにアクセスする。Feature extraction部38は、ステップ264で、詳細には後述する特徴量を算出する。ステップ266で、終端のセグメンテーション区間まで処理が終了したか否かを判断する。ステップ266が否定判定の場合、Feature extraction処理は、ステップ262に戻る。ステップ266が肯定判定の場合、Feature extraction処理は、終了する。 FIG. 10 shows a flowchart of the second processing program of the feature extraction processing. In step 262, the feature extraction unit 38 accesses the speed data of the segment section stored in the ME non-occurrence section storage area 256M in the speed data of the section where no ME has occurred. In step 264, the feature extraction unit 38 calculates a feature amount described later in detail. In step 266, it is determined whether the processing has been completed up to the end segmentation section. If step 266 is negative, the feature extraction process returns to step 262. If step 266 is affirmative, the feature extraction process ends.
図11には、Feature extraction処理の第3の処理のプログラムのフローチャートが示されている。 FIG. 11 shows a flowchart of the third process program of the feature extraction process.
Feature extraction部38は、ステップ272で、ME発生区間記憶領域254Mに記憶されている、MEが発生した区間の速度のデータにおけるセグメント区間の速度のデータにアクセスする。Feature extraction部38は、ステップ274で、特徴量(判定値)を算出する。ステップ276で、終端のセグメンテーション区間まで処理が終了したか否かを判断する。ステップ276が否定判定の場合、Feature extraction処理は、ステップ272に戻る。ステップ276が肯定判定の場合、Feature extraction処理は、終了する。 In step 272, the feature extraction unit 38 accesses the speed data of the segment section in the speed data of the section where the ME has occurred, which is stored in the ME generation section storage area 254M. In step 274, the feature extraction unit 38 calculates a feature amount (determination value). In step 276, it is determined whether or not the processing has been completed up to the end segmentation section. If step 276 is negative, the feature extraction process returns to step 272. If step 276 is positive, the feature extraction process ends.
次に、本実施の形態における特徴量(ステップ264(図10)、ステップ274(図11))を説明する。 Next, feature amounts (step 264 (FIG. 10), step 274 (FIG. 11)) in the present embodiment will be described.
ステップ274(図11)における特徴量(判定値)は、マイクロエラーが発生したと判定するための判定値であり、被験者の指(身体的部位)の非定常の動きを表す値である。 The feature amount (determination value) in step 274 (FIG. 11) is a determination value for determining that a micro error has occurred, and is a value that represents an unsteady movement of the subject's finger (physical part).
具体的には、判定値は、セグメントの中での速度のデータの歪度、速度のデータの自己回帰モデルに関する値、速度のデータを特異スペクトル変換して得られる値、Fitt’s lawモデル(フィッツの法則)を用いて定まるセグメントの活動に関する値である、 Specifically, the determination value includes the skewness of the velocity data in the segment, the value related to the autoregressive model of the velocity data, the value obtained by performing singular spectrum conversion on the velocity data, the Fitt's raw model ( The value of the segment's activity determined using Fitz's Law)
図17を参照して、速度の時系列データの中の各セグメントにおける速度のデータの歪度を説明する。歪度Sは次のように表される。 With reference to FIG. 17, the skewness of the speed data in each segment in the speed time-series data will be described. The skewness S is expressed as follows.
ここで、Nは、セグメント内の速度のデータの総数である。xiは、セグメント内のi番目の速度のデータである。 Here, N is the total number of velocity data in the segment. xi is the i-th speed data in the segment.
は、セグメント内の速度のデータの平均値である。iは、セグメント内の速度のデータを識別する変数である。 Is the average value of the velocity data in the segment. i is a variable that identifies the velocity data in the segment.
次に、図18を参照して、速度の時系列データにおける各セグメントの速度のデータの自己回帰モデルに関する値を説明する。図18に示すように、各セグメントの中の速度の時系列データを更にアップサンプリングし、各セグメントの中の、アップサンプリングの各時刻の速度のデータを、補間により求める。速度のデータの自己回帰モデルは、は次のように表される。 Next, with reference to FIG. 18, the value regarding the autoregressive model of the velocity data of each segment in the velocity time-series data will be described. As shown in FIG. 18, the time-series data of the speed in each segment is further upsampled, and the speed data at each time of upsampling in each segment is obtained by interpolation. The autoregressive model of velocity data is expressed as follows:
ytは、各セグメントの中のアップサンプリングした後の時刻tにおける速度の予測値である。yt−1は、各セグメントの中の時刻t−iにおける速度のデータである。aiは、自己回帰モデルの係数であり、eiは、自己回帰モデルでフィッティングした多項式に基づく速度のデータと、実際の速度のデータとの差(残差)である。 y t is the predicted value of the velocity at time t after upsampling in each segment. y t−1 is speed data at time ti in each segment. a i is a coefficient of the autoregressive model, and e i is a difference (residual) between the speed data based on the polynomial fitted by the autoregressive model and the actual speed data.
判定値は、自己回帰モデルの係数aiでもよく、また、上記差(残差)eiでもよい。 The determination value may be the coefficient a i of the autoregressive model or the difference (residual) e i .
次に、図19を参照して、速度の時系列データにおける各セグメントの速度のデータを特異スペクトル変換して得られる値を説明する。図19に示すように、各セグメントについて、次の処理を行う。即ち、各セグメントの中の速度の時系列データを更にアップサンプリングし、各セグメントの中の、アップサンプリングの各時刻の速度のデータを、補間により求める。各セグメントの中のアップサンプリングした後の各時刻tの速度のデータについて、時刻tの前後の速度のデータからそれぞれハンケル行列を作成し、それらのハンケル行列を特異値分解して、特異ベクトルU、Qを得る。そして、特異ベクトルUと特異ベクトルQとの内積を計算することにより、スコア(Score)を得る。ところで、速度のデータは実際には、図19の最も下のグラフにおいて、実線(速度の変化)のように変化する。上記のように計算して得られるスコア(Score)は、点線(変化点Score)のように、複数得られる。例えば、アップサンプリングして当該セグメントにM個の速度データが得られたとすると、各速度データについてスコア(Score)がM個求められる。総数M個の各スコア(Score)の値の和を総数Mで除算することにより、スコア(Score)の平均を、当該セグメントの特徴量(判定値)として、得る。速度のデータを特異スペクトル変換して得られる値である特徴量(判定値)は、上記スコアの平均値に限定されず、上記スコアのピークの時刻でもよい。 Next, with reference to FIG. 19, values obtained by performing singular spectrum conversion on the velocity data of each segment in the velocity time-series data will be described. As shown in FIG. 19, the following processing is performed for each segment. That is, the time series data of the speed in each segment is further upsampled, and the speed data at each time of upsampling in each segment is obtained by interpolation. For the speed data at each time t after upsampling in each segment, a Hankel matrix is created from the speed data before and after the time t, and the Hankel matrix is subjected to singular value decomposition to obtain a singular vector U, Get Q. Then, the score (Score) is obtained by calculating the inner product of the singular vector U and the singular vector Q. By the way, the speed data actually changes as indicated by a solid line (change in speed) in the lowermost graph of FIG. A plurality of scores (Score) obtained by calculation as described above are obtained as shown by a dotted line (change point Score). For example, if M pieces of velocity data are obtained for the segment by upsampling, M scores are obtained for each velocity data. By dividing the sum of the values of each of the M total scores (Score) by the total number M, the average of the scores (Score) is obtained as the feature amount (determination value) of the segment. The feature amount (determination value), which is a value obtained by performing specific spectrum conversion on the velocity data, is not limited to the average value of the score, and may be the peak time of the score.
次に、図20、21を参照して、Fittsモデルを用いて定まるセグメントにおける活動に関する値を説明する。Fittsモデルを用いて定まるセグメントにおける活動に関する値には、当該活動に要した時間や当該活動の困難度がある。図20に示すように、セグメントにおける活動は、対象を、開始点(Start)から目標点(Target)まで移動させることであり、指が開始点(Start)から目標点(Target)まで移動する。Fittsモデルを用いて定まるセグメントにおける活動に要した時間Tsubtask(i)は、次の通りである。 Next, with reference to FIGS. 20 and 21, values related to activities in segments determined using the Fitts model will be described. The value related to the activity in the segment determined using the Fitts model includes the time required for the activity and the difficulty of the activity. As shown in FIG. 20, the activity in the segment is to move the object from the start point (Start) to the target point (Target), and the finger moves from the start point (Start) to the target point (Target). The time T subtask (i) required for the activity in the segment determined using the Fitts model is as follows.
Tsubtask(i)=a+blog2((D/S)+1) T subtask (i) = a + blog 2 ((D / S) +1)
Dは、開始点(Start)と目標点(Target)との間の距離である。Sは、目標点(Target)の範囲である。a、bは係数である。iは、各セグメントを識別する変数である。 D is the distance between the start point (Start) and the target point (Target). S is the range of the target point (Target). a and b are coefficients. i is a variable for identifying each segment.
また、Fittsモデルを用いて定まるセグメントにおける活動の困難度は、log2((D/S)+1)である。 Further, the difficulty level of activity in the segment determined using the Fitts model is log 2 ((D / S) +1).
係数a、bは次のように求められる。全てのセグメントについて、log2((D/S)+1)と時間Tsubtask(i)とを求め、縦軸を時間Tsubtask(i)、横軸をlog2((D/S)+1)として、各値をプロットする。log2((D/S)+1)に対する時間Tsubtask(i)の一次式を求め。aは当該一次式の切片、bは当該一次式の傾きであり、これらを一次式から求める。 The coefficients a and b are obtained as follows. For all segments, log 2 ((D / S) +1) and time T subtask (i) are obtained, the vertical axis is time T subtask (i) , and the horizontal axis is log 2 ((D / S) +1). Plot each value. Obtain a linear expression of time T subtask (i) for log 2 ((D / S) +1). a is an intercept of the linear expression, b is a slope of the linear expression, and these are obtained from the linear expression.
図21(A)の各セグメントの速度の時系列データから、時間Tsubtask(i)を求めると、時間Tsubtask(i)は、図21(B)に示すようになり、図21(C)に示すように、MEが発生したことが関係付けられているセグメントの時間Tsubtask(i)は、時間Tsubtask(i)の最大値である。よって、MEが発生したことが関係付けられているセグメントの時間Tsubtask(i)は、判定値となる。また、時間Tsubtask(i)が長くなるのは、困難度log2((D/S)+1)が高いことによる。よって、MEが発生したことが関係付けられているセグメントの困難度log2((D/S)+1)も判定値となる。 When the time T subtask (i) is obtained from the time-series data of the speed of each segment in FIG. 21A, the time T subtask (i) is as shown in FIG. 21B, and FIG. As shown, the time T subtask (i) of the segment associated with the occurrence of ME is the maximum value of the time T subtask (i) . Therefore, the segment time T subtask (i) associated with the occurrence of ME is a determination value. The reason why the time T subtask (i) becomes longer is that the difficulty level log 2 ((D / S) +1) is high. Therefore, the difficulty level log 2 ((D / S) +1) of the segment associated with the occurrence of ME is also a determination value.
以上は、ステップ274(図11)における特徴量(判定値)であるが、ステップ264(図10)における特徴量も、上記ステップ274(図11)における特徴量(判定値)の算出方法と同様の方法で得る。 The above is the feature amount (determination value) in step 274 (FIG. 11), but the feature amount in step 264 (FIG. 10) is the same as the method for calculating the feature amount (determination value) in step 274 (FIG. 11). Get in the way.
上記ステップ274(図11)における特徴量(判定値)及びステップ264(図10)における特徴量は規格化しておく。 The feature amount (determination value) in step 274 (FIG. 11) and the feature amount in step 264 (FIG. 10) are normalized.
図5のステップ110におけるClassification(識別)処理は、特徴量(判定値)を用いてIADLのタスクにおけるMEの検出率を求める処理である。Classification部40は、タスクが朝食の用意の場合及びタスクが昼食の用意の場合の各々において、実行結果(指の速度の時系列データ)と、上記特徴量(判定値)とから、各タスクの動作にMEが発生したか否かを判断する。そして、Classification部40は、当該判断結果と、実際のMEの検出結果とから、IADLの各タスクにおけるMEの検出率を求める。その結果が図22(A)〜図22(D)に示されている。図22(A)は、タスクが朝食の用意の場合のReach No−touchのタイプのME検出結果が示されている。図22(B)は、タスクが朝食の用意の場合のReach touchのタイプのME検出結果が示されている。図22(C)は、タスクが昼食の用意の場合のReach No−touchのタイプのME検出結果が示されている。図22(D)は、タスクが昼食の用意の場合のReach touchのタイプのME検出結果が示されている。図22(A)〜図22(D)の各々の横軸は偽陽性率、縦軸は正陽性率である。図22(A)〜図22(D)には、ROC(Receiver Operating Characteristic)曲線、ROC曲線に基づくAUC(Area Under the Curve:ROC曲線の下の領域)、現在の分類器(マイクロエラー発生判断装置)の性能が点で示されている。図22(A)〜図22(D)に示されているように、本実施の形態のマイクロエラー発生判断装置は、マイクロエラーの発生を精度よく判断することができる。 The classification process in step 110 in FIG. 5 is a process for obtaining the ME detection rate in the IADL task using the feature amount (determination value). The classification unit 40 determines whether each task is based on an execution result (time-series data of finger speeds) and the above feature amount (judgment value) when the task is prepared for breakfast and when the task is prepared for lunch. It is determined whether ME has occurred in the operation. Then, the classification unit 40 obtains the ME detection rate in each IADL task from the determination result and the actual ME detection result. The results are shown in FIGS. 22 (A) to 22 (D). FIG. 22A shows the result of ME detection of the Reach No-touch type when the task is breakfast preparation. FIG. 22B shows the result of ME detection of the reach touch type when the task is breakfast preparation. FIG. 22C shows a result of ME detection of the Reach No-touch type when the task is lunch preparation. FIG. 22D shows the result of ME detection of the reach touch type when the task is lunch preparation. In each of FIGS. 22A to 22D, the horizontal axis represents a false positive rate, and the vertical axis represents a positive positive rate. 22A to 22D show an ROC (Receiver Operating Characteristic) curve, an AUC based on the ROC curve (area under the curve), a current classifier (micro error occurrence determination). The performance of the device is shown in dots. As shown in FIGS. 22A to 22D, the micro error occurrence determination device of the present embodiment can accurately determine the occurrence of a micro error.
以上説明したように、本実施の形態では、VR(Virtual Reality、仮想現実)技術を用いてIADL環境を仮想空間に表現し、被験者の指の3次元位置を計測し、操作時の被験者の指の3 次元位置の計測データから速度のデータを求め、マイクロエラーが発生したと判定するための特徴量(判定値)を計算する。よって、マイクロエラーを識別することができ、MCI患者と健常者とを判別することができる。 As described above, in this embodiment, VR (Virtual Reality) technology is used to represent the IADL environment in virtual space, the three-dimensional position of the subject's finger is measured, and the subject's finger during operation is measured. Velocity data is obtained from the three-dimensional position measurement data, and a feature amount (determination value) for determining that a micro error has occurred is calculated. Therefore, a micro error can be identified, and an MCI patient and a healthy person can be discriminated.
ところで、従来のMCIスクリーニングシステムは、被検者が医療機関へ出向き、介護従事者の適切な指導のもとで平均1〜2時間の認知機能テストを受ける必要があるなど、被検者や介護従事者にとって時間的コストのかかる手法である。また、認知機能の評価だけではMCI を高い感度と特異度で検出することは困難であった。本実施の形態では、数分のテストでスクリーングが可能となり、時間的コストを大幅に削減でき、更に、IADLの行動指標を評価していることから、従来の認知機能のみの評価よりも高い感度と特異度でMCIの検出が可能となる。 By the way, the conventional MCI screening system requires that the subject go to a medical institution and take a cognitive function test for an average of 1 to 2 hours under the appropriate guidance of the care worker. This is a time-consuming method for workers. Moreover, it was difficult to detect MCI with high sensitivity and specificity only by evaluating cognitive function. In this embodiment, screening is possible in a few minutes, the time cost can be greatly reduced, and since the IADL behavior index is evaluated, it is higher than the conventional evaluation of only the cognitive function. MCI can be detected with sensitivity and specificity.
そして、本実施の形態では、マイクロエラーの発生又は非発生を自動的に判断することを可能にすることができ、マイクロエラーの発生又は非発生を精度よく判断することができる。
判定値は、行動に着目した指標なので、IADL以外のさまざまなタスクへの導入が可能であり、応用範囲は広い。
In this embodiment, it is possible to automatically determine the occurrence or non-occurrence of a micro error, and to accurately determine the occurrence or non-occurrence of a micro error.
Since the judgment value is an index focusing on behavior, it can be introduced into various tasks other than IADL and has a wide range of applications.
(変形例)
以上説明した実施の形態では、速度として速度の絶対値を用いているが、速度の絶対値ではなくともよい。例えば、指の移動方向も加味してもよい。
以上説明した実施の形態では更に、MEの発生個所を視覚的に情報化する。これにより、専門家による行動プロファイルを作成しやすくなる。
以上説明した各実施の形態では、タスクは、手段的日常生活活動のタスクとしている。本開示の技術は、これに限定されない。タスクは、手段的日常生活活動よりも複雑でなく低次な動作である日常生活活動のタスクでもよい。身体的部位としては、手の指の他に、各活動に応じて、足の指、頭、肩等であってもよい。
(Modification)
In the embodiment described above, the absolute value of the speed is used as the speed, but it may not be the absolute value of the speed. For example, the moving direction of the finger may be taken into account.
In the embodiment described above, the occurrence location of ME is further visualized as information. Thereby, it becomes easy to create an action profile by an expert.
In each embodiment described above, the task is a task of means daily activities. The technology of the present disclosure is not limited to this. The task may be a daily life activity task that is less complex and less sophisticated than the routine daily life activity. The physical part may be a toe, a head, a shoulder or the like according to each activity in addition to the finger of the hand.
以上説明した各実施の形態では、ディスプレイ12は、人工現実感技術を用いて被験者が手段的日常生活活動をするための環境を仮想空間に表現した画像を表示する。本開示の技術は、これに限定されない。ディスプレイ12は、被験者が手段的日常生活活動又は日常生活活動をするための環境を2次元に表現した画像を表示してもよい。 In each of the embodiments described above, the display 12 displays an image that represents an environment in which a subject performs a mean daily life activity in a virtual space using the virtual reality technology. The technology of the present disclosure is not limited to this. The display 12 may display an image that two-dimensionally represents an environment for the subject to perform a daily life activity or a daily life activity.
以上説明した各実施の形態では、ROM22に、データ処理プログラム(図4)が記憶されている。本開示の技術は、これに限定されない。例えば、CD−ROM(Compact Disk Read Only Memory)、SSD(Solid State Drive)、又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体にデータ処理プログラム(図4)を記憶させておいてもよい。この場合、記憶媒体のデータ処理プログラム(図4)がデータ処理装置100にインストールされ、インストールされたプログラムがCPU20によって実行される。 In each of the embodiments described above, the ROM 22 stores a data processing program (FIG. 4). The technology of the present disclosure is not limited to this. For example, a data processing program (FIG. 4) is stored in an arbitrary portable storage medium such as a CD-ROM (Compact Disk Read Only Memory), an SSD (Solid State Drive), or a USB (Universal Serial Bus) memory. May be. In this case, the data processing program (FIG. 4) in the storage medium is installed in the data processing apparatus 100, and the installed program is executed by the CPU 20.
また、通信網(図示省略)を介してデータ処理装置100に接続される他のコンピュータ又はサーバ装置等の記憶部にデータ処理プログラム(図4)を記憶させておき、データ処理プログラム(図4)がデータ処理装置100の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされたデータ処理プログラム(図4)がCPU20によって実行される。 Further, a data processing program (FIG. 4) is stored in a storage unit such as another computer or server device connected to the data processing apparatus 100 via a communication network (not shown). May be downloaded in response to a request from the data processing apparatus 100. In this case, the downloaded data processing program (FIG. 4) is executed by the CPU 20.
また、上記各実施の形態で説明したデータ処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、データ処理は、FPGA又はASIC等のハードウェア構成のみで実現されてもよいし、コンピュータを利用したソフトウェア構成とハードウェア構成との組み合わせで実現されてもよい。 Further, the data processing described in the above embodiments is merely an example. Therefore, it goes without saying that unnecessary steps may be deleted, new steps may be added, and the processing order may be changed within a range not departing from the spirit. Data processing may be realized only by a hardware configuration such as FPGA or ASIC, or may be realized by a combination of a software configuration using a computer and a hardware configuration.
以上、上記実施の形態について図面を参照して詳述してきたが、具体的な構成はこの実施の形態に限られるものではなく、本開示の技術の要旨を逸脱しない範囲の設計等も含まれる。 The above embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope that does not depart from the gist of the technology of the present disclosure. .
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All documents, patent applications and technical standards mentioned in this specification are to the same extent as if each individual document, patent application and technical standard were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.
12 ディスプレイ
16 3次元モーションセンサ
20 CPU
32 Data collection部
34 Data cleansing部
36 Segmentation部
38 Feature extraction部
40 Classification部
12 Display 16 3D motion sensor 20 CPU
32 Data collection unit 34 Data cleaning unit 36 Segmentation unit 38 Feature extraction unit 40 Classification unit
Claims (10)
前記被験者の身体的部位の位置を計測する計測部と、
前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する速度算出部と、
前記所定の活動を行う際に想定される間違いの動作とは区別される前記被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから、前記マイクロエラーが発生したと判定するための判定値を算出する判定値算出部と、
を備えた判定値算出装置であって、
前記判定値は、
前記被験者の身体的部位の非定常の動きを表す値である、
判定値算出装置。 A display unit for displaying an environment for the subject to perform a predetermined activity;
A measurement unit for measuring the position of the physical part of the subject;
Time-series data of the velocity of the physical part from the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit A speed calculation unit for calculating
From the time-series data of the speed within a predetermined range including the time when the micro error, which is the erroneous operation of the subject, is distinguished from the erroneous operation assumed when performing the predetermined activity, the micro error is A determination value calculation unit for calculating a determination value for determining that it has occurred;
A determination value calculation device comprising:
The judgment value is
A value representing the unsteady movement of the subject's physical part,
Determination value calculation device.
請求項1に記載の判定値算出装置。 The display unit virtually displays a three-dimensional environment for the subject to perform a predetermined activity.
The determination value calculation apparatus according to claim 1.
前記所定範囲の中での前記速度のデータの歪度、
前記速度のデータの自己回帰モデルに関する値、
前記速度の時系列データを特異スペクトル変換して得られる値、又は
Fittsモデルを用いて定まる前記所定範囲の活動に関する値である、
請求項1又は請求項2に記載の判定値算出装置。 The judgment value is
Skewness of the speed data within the predetermined range;
A value for the autoregressive model of the velocity data,
A value obtained by performing singular spectrum conversion on the time series data of the velocity, or a value relating to the activity in the predetermined range determined using the Fitts model.
The determination value calculation apparatus according to claim 1 or 2.
前記被験者の身体的部位の位置を計測する計測部と、
前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出する速度算出部と、
所定の活動を行う際に想定される間違いの動作とは区別される被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから予め算出された前記マイクロエラーが発生したと判定するための判定値と、前記速度算出部により算出された前記身体的部位の速度の時系列データとから、前記所定の動作をしようとした前記被験者の身体的部位に、前記マイクロエラーが発生したか否かを判断する判断部と、
を備えたマイクロエラー発生判断装置であって、
前記判定値は、
前記被験者の身体的部位の非定常の動きを表す値である、
マイクロエラー発生判断装置。 A display unit for displaying an environment for the subject to perform a predetermined activity;
A measurement unit for measuring the position of the physical part of the subject;
Time-series data of the velocity of the physical part from the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit A speed calculation unit for calculating
The micro error calculated in advance from the time-series data of the speed in a predetermined range including the time when a micro error, which is an erroneous operation of the subject, is distinguished from an erroneous operation assumed when performing a predetermined activity From the determination value for determining that has occurred and the time-series data of the speed of the physical part calculated by the speed calculation unit, the physical part of the subject who is going to perform the predetermined action, A determination unit for determining whether or not a micro error has occurred;
A micro error occurrence determination device comprising:
The judgment value is
A value representing the unsteady movement of the subject's physical part,
Micro error occurrence determination device.
請求項4に記載のマイクロエラー発生判断装置。 The display unit virtually displays a three-dimensional environment for the subject to perform a predetermined activity.
The micro error occurrence determination device according to claim 4.
前記所定範囲の中での前記速度のデータの歪度、
前記速度のデータの自己回帰モデルに関する値、
前記速度の時系列データを特異スペクトル変換して得られる値、又は
Fittsモデルを用いて定まる前記所定範囲の活動に関する値である、
請求項4又は請求項5に記載のマイクロエラー発生判断装置。 The judgment value is
Skewness of the speed data within the predetermined range;
A value for the autoregressive model of the velocity data,
A value obtained by performing singular spectrum conversion on the time series data of the velocity, or a value relating to the activity in the predetermined range determined using the Fitts model.
The micro error occurrence determination device according to claim 4 or 5.
計測部が、前記被験者の身体的部位の位置を計測するステップと、
速度算出部が、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出するステップと、
判定値算出部が、前記所定の活動を行う際に想定される間違いの動作とは区別される前記被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから、前記マイクロエラーが発生したと判定するための判定値を算出するステップと、
を備えた判定値算出方法であって、
前記判定値は、
前記被験者の身体的部位の非定常の動きを表す値である、
判定値算出方法。 A display unit displaying an environment for the subject to perform a predetermined activity;
A measurement unit measuring the position of the physical part of the subject;
From the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit, the speed calculation unit of the physical part Calculating time-series data of speed;
Time-series data of the speed within a predetermined range including a time when a micro error, which is an erroneous action of the subject, is distinguished from an erroneous action assumed when the judgment value calculation unit performs the predetermined activity From the step of calculating a determination value for determining that the micro error has occurred,
A determination value calculation method comprising:
The judgment value is
A value representing the unsteady movement of the subject's physical part,
Determination value calculation method.
計測部が、前記被験者の身体的部位の位置を計測するステップと、
速度算出部が、前記表示部により表示された前記環境で前記所定の動作をしようとした前記被験者の身体的部位の前記計測部により時系列に計測された位置のデータから、前記身体的部位の速度の時系列データを算出するステップと、
判断部が、所定の活動を行う際に想定される間違いの動作とは区別される被験者の間違った動作であるマイクロエラーが発生した時を含む所定範囲の前記速度の時系列データから予め算出された前記マイクロエラーが発生したと判定するための判定値と、前記速度算出部により算出された前記身体的部位の速度の時系列データとから、前記所定の動作をしようとした前記被験者の身体的部位に、前記マイクロエラーが発生したか否かを判断するステップと、
を備えたマイクロエラー発生判断方法であって、
前記判定値は、
前記被験者の身体的部位の非定常の動きを表す値である、
マイクロエラー発生判断方法。 A display unit displaying an environment for the subject to perform a predetermined activity;
A measurement unit measuring the position of the physical part of the subject;
From the data of the position measured in time series by the measurement unit of the physical part of the subject who tried to perform the predetermined action in the environment displayed by the display unit, the speed calculation unit of the physical part Calculating time-series data of speed;
The determination unit is calculated in advance from time-series data of the speed within a predetermined range including a time when a micro error, which is an erroneous operation of the subject, which is distinguished from an erroneous operation assumed when performing a predetermined activity. From the determination value for determining that the micro error has occurred, and the time-series data of the speed of the physical part calculated by the speed calculation unit, the physical movement of the subject who tried to perform the predetermined action Determining whether or not the micro error has occurred in a site;
A micro error occurrence determination method comprising
The judgment value is
A value representing the unsteady movement of the subject's physical part,
Micro error occurrence determination method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018052167A JP2019162288A (en) | 2018-03-20 | 2018-03-20 | Determination value calculation device, method and program, and micro error occurrence determination device, method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018052167A JP2019162288A (en) | 2018-03-20 | 2018-03-20 | Determination value calculation device, method and program, and micro error occurrence determination device, method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019162288A true JP2019162288A (en) | 2019-09-26 |
Family
ID=68064295
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018052167A Pending JP2019162288A (en) | 2018-03-20 | 2018-03-20 | Determination value calculation device, method and program, and micro error occurrence determination device, method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019162288A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022079868A (en) * | 2020-11-17 | 2022-05-27 | 株式会社国際電気通信基礎技術研究所 | Data interpolation processing method, data interpolation processing apparatus, program, learning processing device and prediction processing device |
| JPWO2024053032A1 (en) * | 2022-09-08 | 2024-03-14 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011177228A (en) * | 2010-02-26 | 2011-09-15 | Tokyo Metropolitan Institute Of Medical Science | Method for identifying and evaluating parallel motor control function in the brain based on electromyogram signal |
| JP2013109540A (en) * | 2011-11-21 | 2013-06-06 | Hitachi Ltd | Regression analysis system and regression analysis method for performing discrimination and regression simultaneously |
| JP2017140424A (en) * | 2017-03-30 | 2017-08-17 | 日立マクセル株式会社 | Brain function disorder evaluation method, brain function disorder evaluation device and program thereof |
-
2018
- 2018-03-20 JP JP2018052167A patent/JP2019162288A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011177228A (en) * | 2010-02-26 | 2011-09-15 | Tokyo Metropolitan Institute Of Medical Science | Method for identifying and evaluating parallel motor control function in the brain based on electromyogram signal |
| JP2013109540A (en) * | 2011-11-21 | 2013-06-06 | Hitachi Ltd | Regression analysis system and regression analysis method for performing discrimination and regression simultaneously |
| JP2017140424A (en) * | 2017-03-30 | 2017-08-17 | 日立マクセル株式会社 | Brain function disorder evaluation method, brain function disorder evaluation device and program thereof |
Non-Patent Citations (2)
| Title |
|---|
| NIKEN PRASASTI MARTONO, TAKEHIKO YAMAGUCHIほか: "An Analysis of Motion Transition in Subtle Errors using Inductive Logic Programming: A Case Study in", INTERNATIONAL JOURNAL OF SOFTWARE SCIENCE AND COMPUTATIONAL INTELLIGENCE [オンライン], vol. vol.10、issue.1、article 3, JPN7021002282, January 2018 (2018-01-01), pages 27 - 28, ISSN: 0004592882 * |
| NIKEN PRASASTI MARTONO, TAKEHIKO YAMAGUCHIほか: "Utilizing finger movement data to cluster patients with everyday action impairment", 2016年、2016 IEEE 15TH INTERNATIONAL CONFERENCE ON COGNITIVE INFORMATICS & COGNITIVE COMPUTING [, JPN6021023833, 2016, pages 459 - 464, XP033068783, ISSN: 0004592883, DOI: 10.1109/ICCI-CC.2016.7862077 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022079868A (en) * | 2020-11-17 | 2022-05-27 | 株式会社国際電気通信基礎技術研究所 | Data interpolation processing method, data interpolation processing apparatus, program, learning processing device and prediction processing device |
| JP7557771B2 (en) | 2020-11-17 | 2024-09-30 | 株式会社国際電気通信基礎技術研究所 | DATA INTERPOLATION PROCESSING METHOD, DATA INTERPOLATION PROCESSING DEVICE, PROGRAM, LEARNING PROCESSING DEVICE, AND PREDICTION PROCESSING DEVICE |
| JPWO2024053032A1 (en) * | 2022-09-08 | 2024-03-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12279882B2 (en) | Movement disorder diagnostics from video data using body landmark tracking | |
| CN113686352B (en) | Finger movement evaluation system and finger movement evaluation method | |
| EP3659505A1 (en) | Most relevant x-ray image selection for hemodynamic simulation | |
| Elgendi et al. | Arm movement speed assessment via a Kinect camera: a preliminary study in healthy subjects | |
| WO2013192234A1 (en) | Systems and methods for identifying historical vasculature cases | |
| Pham et al. | Multimodal detection of Parkinson disease based on vocal and improved spiral test | |
| JP7219182B2 (en) | Detection device and detection method | |
| JP2016097228A5 (en) | ||
| JP2019162288A (en) | Determination value calculation device, method and program, and micro error occurrence determination device, method and program | |
| JP7052604B2 (en) | Business estimation method, information processing device, and business estimation program | |
| JP2015157071A (en) | Health condition evaluation support system and capillary vessel data acquisition method | |
| JP6832005B2 (en) | Subject judgment device, method, and program | |
| KR102403752B1 (en) | Quantification method and system for movement disorder | |
| US11564634B2 (en) | Determining health state of individuals | |
| JP5911840B2 (en) | Diagnostic data generation device and diagnostic device | |
| US20230104299A1 (en) | Computational approaches to assessing central nervous system functionality using a digital tablet and stylus | |
| JP7521609B2 (en) | Information processing device, feature quantity selection method, teacher data generation method, estimation model generation method, stress level estimation method, and program | |
| JP2020203032A (en) | Encephalopathy determination program, encephalopathy determination method, and information processing device | |
| CN116189873A (en) | A method for automatic matching of medical information | |
| JP5897745B2 (en) | Aging analysis method and aging analyzer | |
| WO2022045049A1 (en) | Information processing device, information processing method, and program | |
| Howedi et al. | Enhancing Human Fall Detection with Wearable Sensors: Exploring Artificial Intelligence through Approximate Entropy | |
| Arunkumar et al. | AI-Powered Wrist Ultrasound for Peripheral Arterial Disease | |
| Hongwei et al. | Quantitatively plotting the human face for multivariate data visualisation illustrated by health assessments using laboratory parameters | |
| JP6960369B2 (en) | Analytical system and analytical method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190225 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210914 |