[go: up one dir, main page]

JP6896925B2 - Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program that makes the computer function as a means to judge the stress coping style of the subject, learns the spatial features of the subject's facial image Programs and trained models that act as means - Google Patents

Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program that makes the computer function as a means to judge the stress coping style of the subject, learns the spatial features of the subject's facial image Programs and trained models that act as means Download PDF

Info

Publication number
JP6896925B2
JP6896925B2 JP2020144666A JP2020144666A JP6896925B2 JP 6896925 B2 JP6896925 B2 JP 6896925B2 JP 2020144666 A JP2020144666 A JP 2020144666A JP 2020144666 A JP2020144666 A JP 2020144666A JP 6896925 B2 JP6896925 B2 JP 6896925B2
Authority
JP
Japan
Prior art keywords
feature amount
coping
learning
subject
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020144666A
Other languages
Japanese (ja)
Other versions
JP2021037287A (en
Inventor
野澤 昭雄
昭雄 野澤
孝輔 大岩
孝輔 大岩
研一 中野
研一 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tosho Estate Co Ltd
Original Assignee
Tosho Estate Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tosho Estate Co Ltd filed Critical Tosho Estate Co Ltd
Priority to US17/638,944 priority Critical patent/US12201446B2/en
Priority to KR1020227010268A priority patent/KR20220056210A/en
Priority to PCT/JP2020/032763 priority patent/WO2021040025A1/en
Publication of JP2021037287A publication Critical patent/JP2021037287A/en
Application granted granted Critical
Publication of JP6896925B2 publication Critical patent/JP6896925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/02028Determining haemodynamic parameters not otherwise provided for, e.g. cardiac contractility or left ventricular ejection fraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Fuzzy Systems (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、被験者のストレス対処様式を非接触状態で判定する技術に関するものである。 The present invention relates to a technique for determining a subject's stress coping mode in a non-contact state.

被験者のストレス状態を把握する技術は公知である。たとえば、特許文献1には、顔面熱放射熱量を測定することにより被験者の心理的変化を推定する技術が記載されている。
また、特許文献2には、顔画像情報に基づいて被験者の心理状態のレベル計測を行う技術が記載されている。これらの技術によれば、被験者に何らかの心理的変化があったことを非接触状態で検知したり、被験者の心理状態を非接触状態で量的に分析したりすることができる。
Techniques for grasping the stress state of a subject are known. For example, Patent Document 1 describes a technique for estimating a psychological change of a subject by measuring the amount of heat radiated from the face.
Further, Patent Document 2 describes a technique for measuring the level of the psychological state of a subject based on facial image information. According to these techniques, it is possible to detect that a subject has had some psychological change in a non-contact state, or to quantitatively analyze the psychological state of a subject in a non-contact state.

しかし、特許文献1及び2の技術では、被験者が感じているストレスの種類を把握することができないため、被験者のストレスについて質的分析を行うことはできない。 However, in the techniques of Patent Documents 1 and 2, since the type of stress felt by the subject cannot be grasped, it is not possible to perform a qualitative analysis on the stress of the subject.

特開平6−54836号公報Japanese Unexamined Patent Publication No. 6-54836 特開2007−68620号公報JP-A-2007-68620

ところで、人間はストレス刺激に直面した時に心臓血管系が身体各組織からの代謝要求を満たすという目的を達すべく、特徴的な反応パターンを示すことが知られている。即ち、能動的対処を示すパターン、受動的対処を示すパターン及び、ストレスに対して特定の対処をしないパターンである。これらは「ストレス対処様式」と呼ばれ、能動的対処のパターンが現れているときには、その被験者は良いストレス状態にあると推定し得る。反対に、受動的対処のパターンが現れているときには、その被験者は悪いストレス状態にあると推定し得る。
すなわち、被験者のストレス対処様式を判定することにより、被験者が感じているストレスの種類を把握することが可能になる。
By the way, it is known that human beings exhibit a characteristic reaction pattern in order to achieve the purpose of the cardiovascular system satisfying the metabolic demand from each body tissue when faced with a stress stimulus. That is, there are a pattern showing active coping, a pattern showing passive coping, and a pattern not taking specific coping with stress. These are called "stress coping modalities" and when active coping patterns appear, the subject can be presumed to be in good stress. Conversely, when a pattern of passive coping appears, the subject can be presumed to be in poor stress.
That is, by determining the stress coping mode of the subject, it becomes possible to grasp the type of stress felt by the subject.

本発明は、被験者のストレス対処様式を非接触状態で判定することができるストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、コンピュータを被検者のストレス対処様式を判定する手段として機能させるプログラム、コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させるプログラム及び学習済モデルを提供する。 The present invention presents a stress coping style determination system capable of determining a subject's stress coping style in a non-contact state, a stress coping style determination method, a learning device, a learning method, and a means for determining a subject's stress coping style using a computer. Provided are a program that functions as a computer, a program that causes a computer to function as a means for learning a spatial feature of a subject's facial image, and a trained model.

上記課題を解決するために、請求項1のストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得する生体情報取得部と、前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定部と、を有し、前記応答パターンは、血行力学パラメータにより特定されるストレス対処様式判定システムであって、前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含み、前記生体情報は、顔面画像であり、前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」の三種類のパターンが含まれ、前記判定部は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している判定用特徴量記憶部を有し、前記生体情報と前記判定用特徴量記憶部に記憶されている各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれのパターンを示す様式であるか判定し、前記判定用特徴量記憶部に記憶されている特徴量は、機械学習部により抽出された特徴量であり、前記機械学習部は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とする。 In order to solve the above problem, the stress coping style determination system according to claim 1 comprises a biometric information acquisition unit that acquires the biometric information of the subject in a non-contact state, and the biometric information and a response pattern specified in advance. It has a determination unit that determines the stress coping mode of the subject based on the subject, and the response pattern is a stress coping mode determination system specified by a blood circulation dynamics parameter, and the blood circulation dynamics parameters are average blood pressure and heart rate. The biometric information is a facial image, and the response pattern includes "active coping" and "passive coping". The judgment unit includes three types of patterns, "active coping" and "no coping", and the determination unit includes a spatial feature corresponding to "active coping", a spatial feature corresponding to "passive coping", and "no coping". It has a determination feature amount storage unit that stores the spatial feature amount corresponding to the above, and the stress is based on the biological information and each spatial feature amount stored in the determination feature amount storage unit. It is determined which of the patterns of "active coping", "passive coping", and "no coping" is shown in the coping mode, and the feature amount stored in the determination feature amount storage unit is determined. It is a feature quantity extracted by the machine learning unit, and the machine learning unit has a plurality of learning facial images labeled corresponding to each of "active coping", "passive coping", and "no coping". A learning data storage unit that stores the above, a feature amount extraction unit that extracts the spatial feature amount of the face image from the learning face image using a learned model, and an extraction result by the feature amount extraction unit. Based on the relationship with the label attached to the learning facial image as the extraction target, the network parameters of the trained model so that the extraction accuracy of the spatial feature amount by the feature amount extraction unit is high. It is characterized by having a feature amount learning unit for changing the above.

このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定する。 This stress coping style determination system acquires the subject's biometric information in a non-contact state, and based on the biometric information and the response pattern specified by the hemodynamic parameters, the stress coping style of the subject is not determined. Judgment is made based on the contact state.

ここで「血行力学」(hemodynamics)とは、血液循環を対象とする循環生理学の一分科のことであり、力学、弾性体力学、流体力学の理論を生体系に応用した研究部門である。Here, "hemodynamics" is a subdivision of circulatory physiology that targets blood circulation, and is a research division that applies the theories of mechanics, elastic body mechanics, and fluid mechanics to biological systems.
具体的には、心臓の内圧,拍動,仕事量,拍出量,血管や心筋の弾性,脈拍,血流速度,血液の粘性などを研究するものである。従って、本発明において「血行力学パラメータ」とは、心臓の内圧,拍動,仕事量,拍出量,血管や心筋の弾性,脈拍,血流速度,血液の粘性等の数値の媒介変数の意味である。Specifically, it studies the internal pressure of the heart, pulsation, workload, stroke, elasticity of blood vessels and myocardium, pulse, blood flow velocity, and viscosity of blood. Therefore, in the present invention, the "hemodynamic parameter" means a numerical parameter such as internal pressure of the heart, pulsation, workload, pumping volume, elasticity of blood vessels and myocardium, pulse, blood flow velocity, and blood viscosity. Is.
このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報と平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータにより特定される応答パターンとに基づいて、その被検者のストレス対処様式を判定する。また、血行力学パラメータは一般的には連続血圧計によって同定することができる。This stress coping mode determination system acquires the biological information of the subject in a non-contact state, and the biological information and a plurality of the average blood pressure, heart rate, cardiac output, stroke volume, and total peripheral resistance. Based on the response pattern identified by the parameters of, the stress coping mode of the subject is determined. Hemodynamic parameters can also be generally identified by a continuous sphygmomanometer.

このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報に基づいて、その被検者のストレス対処様式が、「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する。This stress coping style determination system acquires the biometric information of the subject in a non-contact state, and based on the biometric information, the stress coping style of the subject is "active coping" or "passive coping". And, it is determined which of the response patterns of "no action" is shown.

このストレス対処様式判定システムは、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶し、被検者の生体情報と各空間的特徴量とに基づいて、その被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する。This stress coping style determination system stores spatial features corresponding to "active coping", spatial features corresponding to "passive coping", and spatial features corresponding to "no coping", and is subject to stress. Based on the examiner's biological information and each spatial feature, the subject's stress coping mode shows any response pattern of "active coping", "passive coping", and "no coping". Determine if it is a style.

このストレス対処様式判定システムは、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を、機械学習部により抽出する。This stress coping style determination system determines the spatial features corresponding to "active coping", the spatial features corresponding to "passive coping", and the spatial features corresponding to "no coping" in the machine learning unit. Extract by.
機械学習部は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果と抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する。The machine learning unit stores a plurality of learning facial images labeled corresponding to "active coping", "passive coping", and "no coping", and from the learning facial image to the subject's facial image. The spatial feature amount of the subject's facial image is extracted using the trained model, and the spatial feature amount of the subject's facial image is based on the relationship between the extraction result and the label attached to the learning facial image to be extracted. Change the network parameters of the trained model so that the extraction accuracy of is high.

また、請求項2のストレス対処様式判定システムは、請求項1に記載のストレス対処様式判定システムにおいて、前記顔面画像は、顔面熱画像または顔面可視画像であることを特徴とする。Further, the stress coping style determination system according to claim 2 is the stress coping style determination system according to claim 1, wherein the facial image is a facial thermal image or a facial visible image.

このストレス対処様式判定システムは、被検者の顔面熱画像または顔面可視画像を非接触状態で取得し、その顔面熱画像または顔面可視画像と前記応答パターンとに基づいて、その被検者のストレス対処様式を判定する。This stress coping style determination system acquires a facial thermal image or facial visible image of a subject in a non-contact state, and based on the facial thermal image or facial visible image and the response pattern, the stress of the subject. Determine the coping mode.
この場合、「顔面可視画像」は一般に広く使用されているカメラ、即ち、結像するための光学系を有し映像を撮影するための装置により被検者の顔面を撮影して得られる画像である。この場合、カラー画像が好ましい。また、「顔面熱画像」とは、被検者の顔面から放射される赤外線を分析し、熱分布を図として表した画像であり、赤外線サーモグラフィにより撮影して得られるものである。In this case, the "face visible image" is an image obtained by photographing the face of the subject with a generally widely used camera, that is, a device having an optical system for forming an image and taking an image. is there. In this case, a color image is preferable. The "facial thermal image" is an image in which infrared rays radiated from the face of a subject are analyzed and the heat distribution is represented as a diagram, and is obtained by taking an image by infrared thermography.

また、請求項3のストレス対処様式判定システムは、請求項1または2に記載のストレス対処様式判定システムにおいて、前記判定部は、前記顔面画像に含まれる顔面の特定部位のストレス応答を観察することにより被験者のストレス対処様式を判定することを特徴とする。Further, the stress coping style determination system according to claim 3 is the stress coping style determination system according to claim 1, wherein the determination unit observes the stress response of a specific part of the face included in the facial image. It is characterized in that the stress coping mode of the subject is determined by.

このストレス対処様式判定システムは、被験者の顔面の特定部位のストレス応答と前記応答パターンとに基づいて、その被検者のストレス対処様式を判定する。This stress coping style determination system determines the stress coping style of the subject based on the stress response of a specific part of the face of the subject and the response pattern.

また、請求項4のストレス対処様式判定システムは、請求項1〜3のいずれか1項に記載のストレス対処様式判定システムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。Further, the stress coping style determination system of claim 4 is the stress coping style determination system according to any one of claims 1 to 3, and the spatial feature amount is calculated based on the facial image of the subject. It is characterized by being a fractal dimension.

また、請求項5のプログラムは、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、被検者の顔面画像と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する判定ステップと、を有し、前記応答パターンは、血行力学パラメータにより特定され、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する学習ステップと、を有し、前記判定用特徴量記憶ステップは、前記特徴量抽出ステップにより抽出した前記空間的特徴量を記憶するステップであることを特徴とする。 Further, the program of claim 5 is a determination to store the spatial feature amount corresponding to "active coping", the spatial feature amount corresponding to "passive coping", and the spatial feature amount corresponding to "no coping". Based on the feature amount storage step, the facial image of the subject, and each spatial feature amount memorized by the determination feature amount storage step, the stress coping style of the subject is "active coping" and "passive". It has a determination step of determining which of the response patterns of "target coping" and "no coping" is exhibited, and the response pattern is specified by a hemodynamic parameter, and is identified by "active coping" and "active coping". A learning data storage step for storing a plurality of learning facial images labeled corresponding to "passive coping" and "no coping", and a trained model for the spatial features of the learning facial image. Based on the relationship between the feature amount extraction step to be extracted using the feature amount, the extraction result by the feature amount extraction step, and the label attached to the learning facial image as the extraction target, the feature amount extraction step is performed. It has a learning step of changing the network parameters of the trained model so that the extraction accuracy of the spatial feature quantity is high, and the determination feature quantity storage step is the spatial feature quantity extracted by the feature quantity extraction step. It is characterized in that it is a step of memorizing a feature amount.

このプログラムは、これが一又は互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量と被検者の顔面画像と、に基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する手段として機能させる。 This program is installed and executed on multiple computers that work in cooperation with one or more computers, so that the system consisting of the one or more computers is treated with a spatial feature "passive" corresponding to "active coping". Based on the spatial features corresponding to "targeted coping", the spatial features corresponding to "no coping", and the facial image of the subject, the stress coping style of the subject is "active coping" and "active coping". passive coping "and" Ru to function as a means for determining whether the manner showing any response pattern of the Action None. "

このプログラムは、これが一又は互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更すると共に、抽出した空間的特徴量を記憶する手段として機能させる。This program is installed and executed on multiple computers that work in cooperation with one or more computers, so that the system consisting of the one or more computers is "actively dealt with", "passively dealt with", and "no action taken". A plurality of learning facial images labeled corresponding to each of the above were stored, and the spatial features of the learning facial images were extracted using the trained model, and the extraction results and their extraction targets were used. A means for changing the network parameters of the trained model and storing the extracted spatial features so that the extraction accuracy of the spatial features is high based on the relationship with the label attached to the learning facial image. To function as.

また、請求項6のプログラムは、請求項5のプログラムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。 Further, the program of claim 6 is characterized in that, in the program of claim 5, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject .

また、請求項7のストレス対処様式判定方法は、生体情報取得部と、判定部と、を有するシステムによるストレス対処様式判定方法であって、前記生体情報取得部により被検者の生体情報を非接触状態で取得する生体情報取得ステップと、前記判定部により前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定ステップと、を有し、前記応答パターンは、血行力学パラメータにより特定され、前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含み、前記生体情報は、顔面画像であり、前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」の三種類のパターンが含まれ、前記判定ステップには、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、前記生体情報と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれのパターンを示す様式であるか判定する応答パターン判定ステップと、が含まれ、前記判定用特徴量記憶ステップにより記憶される特徴量は、機械学習部により抽出された特徴量であり、前記機械学習部は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を実行することを特徴とするFurther, the stress coping style determination method according to claim 7 is a stress coping style determination method by a system having a biometric information acquisition unit and a determination unit, and the biometric information acquisition unit does not remove the biometric information of the subject. The response pattern includes a biological information acquisition step acquired in a contact state and a determination step of determining a stress coping mode of a subject based on the biological information and a response pattern previously specified by the determination unit. Specified by hemodynamic parameters, the hemodynamic parameters include a plurality of parameters of mean blood pressure, heart rate, heart rate output, single stroke amount and total peripheral resistance, and the biometric information is a facial image. Yes, the response pattern includes three types of patterns, "active coping", "passive coping", and "no coping", and the determination step includes spatial features corresponding to "active coping". A quantity, a spatial feature quantity corresponding to "passive coping" and a spatial feature quantity corresponding to "no coping" are stored by a determination feature quantity storage step, and the biological information and the determination feature quantity storage step. A response pattern determination step for determining which of the "active coping", "passive coping", and "no coping" patterns the stress coping style is based on each of the spatial features. And, and the feature amount memorized by the determination feature amount storage step is a feature amount extracted by the machine learning unit, and the machine learning unit has "active coping" and "passive coping". A learning data storage step for storing a plurality of learning facial images labeled corresponding to each of "no action" and a model in which the spatial features of the facial image are learned from the learning facial image. Based on the relationship between the feature amount extraction step to be extracted using the feature amount extraction step, the extraction result by the feature amount extraction step, and the label attached to the learning facial image as the extraction target, the feature amount extraction step is performed. It is characterized by executing a feature amount learning step of changing the network parameters of the trained model so that the extraction accuracy of the spatial feature amount is high .

このストレス対処様式判定方法は、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を判定する。This stress coping style determination method acquires the subject's biological information in a non-contact state, and determines the stress coping style of the subject based on the biological information and the response pattern specified by the hemodynamic parameters. To do.

また、請求項8の学習装置は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とする。Further, the learning device according to claim 8 includes a learning data storage unit that stores a plurality of learning facial images labeled corresponding to response patterns specified by blood circulation dynamics parameters, and the learning facial image. It is attached to the feature amount extraction unit that extracts the spatial feature amount of the subject's facial image from the subject using the trained model, the extraction result by the feature amount extraction unit, and the learning facial image that is the extraction target. It is characterized by having a feature quantity learning unit that changes the network parameters of the trained model so that the extraction accuracy of the spatial feature quantity by the feature quantity extraction unit is high based on the relationship with the label. ..

この学習装置は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する This learning device stores a plurality of learning facial images labeled according to the response pattern specified by the hemodynamic parameter, and learns the spatial features of the subject's facial image from the learning facial image as a trained model. Based on the relationship between the extraction result and the label attached to the learning facial image that was the target of the extraction, the accuracy of extracting the spatial features of the subject's facial image should be high. Change the network parameters of the trained model .

また、請求項9の学習装置は、請求項8の学習装置において、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする。Further, the learning device according to claim 9 is characterized in that, in the learning device according to claim 8, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.

また、請求項10の学習方法は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とする。 Further, the learning method of claim 10 includes a learning data storage step for storing a plurality of learning facial images labeled according to a response pattern specified by a blood circulation dynamics parameter, and a subject from the learning facial image. A feature amount extraction step for extracting the spatial feature amount of the facial image of the above using a trained model, an extraction result by the feature amount extraction step, and a label attached to the learning facial image to be extracted. It is characterized by having a feature amount learning step in which the network parameters of the trained model are changed so that the extraction accuracy of the spatial feature amount by the feature amount extraction step is high based on the relationship of.

この学習方法は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、それらの学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更するThis learning method stores a plurality of learning facial images labeled according to the response patterns specified by the hemodynamic parameters, and learns the spatial features of the subject's facial image from the learning facial images. Extraction is performed using the completed model, and the accuracy of extracting the spatial feature amount of the subject's facial image is improved based on the relationship between the extraction result and the label attached to the learning facial image to be extracted. Change the network parameters of the trained model so that .

また、請求項11の学習方法は、請求項10の学習方法において、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする。Further, the learning method of claim 11 is characterized in that, in the learning method of claim 10, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.

また、請求項12のプログラムは、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とする、コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させることを特徴とする。Further, the program of claim 12 includes a learning data storage step for storing a plurality of learning facial images labeled according to a response pattern specified by a blood circulation dynamics parameter, and a learning data storage step of the subject from the learning facial image. The feature amount extraction step for extracting the spatial feature amount of the facial image using the trained model, the extraction result by the feature amount extraction step, and the label attached to the learning facial image to be extracted. A computer characterized by having a feature amount learning step that changes the network parameters of the trained model so that the extraction accuracy of the spatial feature amount by the feature amount extraction step is high based on the relationship. It is characterized in that it functions as a means for learning the amount of spatial features of the facial image of the subject.

このプログラムは、これが一又は互いに連携して働く互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、それらの学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する学習装置として機能させる。This program is installed and executed on multiple computers that work in tandem with one or more of them, thereby transforming the system of one or more computers into a response pattern specified by hemodynamic parameters. A plurality of learning facial images labeled correspondingly are stored, the spatial features of the subject's facial image are extracted from the learning facial images using a trained model, and the extraction result and its extraction target are extracted. It functions as a learning device that changes the network parameters of the trained model so that the extraction accuracy of the spatial features of the subject's facial image is high based on the relationship with the label attached to the learning facial image. Let me.

請求項13のプログラムは、請求項12のプログラムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする。The program of claim 13 is characterized in that, in the program of claim 12, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.

請求項14の学習済モデルは、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を教師データに用いて、被験者の顔面画像の空間的特徴量を機械学習することにより生成される学習済モデルであって、前記複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を前記学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を繰り返すことにより生成されたことを特徴とする。The trained model of claim 14 uses a plurality of trained facial images labeled corresponding to the response patterns specified by the hemodynamic parameters as the teacher data, and uses the spatial features of the subject's facial image as a machine. It is a learned model generated by learning, and the learning data storage step for storing the plurality of learning facial images and the spatial feature amount of the subject's facial image from the learning facial image have been learned. The feature amount extraction step is based on the relationship between the feature amount extraction step extracted using the model, the extraction result by the feature amount extraction step, and the label attached to the learning facial image as the extraction target. It is characterized in that it is generated by repeating the feature amount learning step of changing the network parameters of the trained model so that the extraction accuracy of the spatial feature amount is high.

また、請求項15の学習済モデルは、請求項14の学習済モデルにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする。Further, the trained model of claim 15 is characterized in that, in the trained model of claim 14, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.

請求項1のストレス対処様式判定システムによれば、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定することができるので、被験者に行動的制約を与えることなく、被験者が感じているストレスの種類を把握することが可能になる。According to the stress coping mode determination system of claim 1, the biometric information of the subject is acquired in a non-contact state, and the subject's biometric information and the response pattern specified by the hemodynamic parameters are used as the basis for the subject's biometric information. Since the stress coping mode can be determined in a non-contact state, it is possible to grasp the type of stress felt by the subject without imposing behavioral restrictions on the subject.
一般に、「ストレス」という語は広く用いられているが、心理学上、「ストレス」とは「生体に作用する外からの刺激(ストレッサ―)に対して生じる非特異的反応の総称である」(心理学者ハンス・セリエ博士)とされている。In general, the word "stress" is widely used, but psychologically, "stress" is "a general term for non-specific reactions that occur to external stimuli (stressors) that act on living organisms." (Psychologist Dr. Hans Selye).
人間の生存に基づき様々なストレッサーが存在し、近年特に、社会的環境の中でのストレッサーが多く、生体に様々な影響を及ぼしていることが知られており、場合によっては、疾患の原因ともなることが医学的に判明している。There are various stressors based on human survival, and in recent years it is known that there are many stressors especially in the social environment, which have various effects on living organisms, and in some cases, they are also the cause of diseases. It is medically known to be.
しかしながら、ストレスは全てが人間存在にとって悪いものではなく、仮にストレスを受けた場合であっても、ストレスに対処しようとした場合には生体が活性化し、プラスの効果をもたらす場合もあることが知られている。このような観点から、セリエ博士は受け手側の生体条件の差やストレスの程度等によって、良いストレス(enstress)と悪いストレス(distress)になりうる旨を明らかにしている。However, it is known that stress is not all bad for human existence, and even if stress is applied, the living body may be activated and have a positive effect when trying to cope with stress. Has been done. From this point of view, Dr. Serie has clarified that good stress (enstress) and bad stress (distress) can occur depending on the difference in biological conditions on the receiving side and the degree of stress.
従って、このような心理学の視点から、ストレスを考慮する場合にはストレス一般をすべて悪いものとして把握するのではなく、上記のように生体にとってのストレスの種類を分類して考えることが必要であり、また、このような観点により、現代における様々な社会活動の中でどのようにストレス管理を行い、例えば、生産効率、作業効率を上げるか、について社会的、産業的に、かつポジティブに考えることが可能となる。Therefore, from such a psychological point of view, when considering stress, it is necessary to classify and consider the types of stress for the living body as described above, rather than grasping all stress in general as bad. Yes, and from this perspective, think socially, industrially, and positively about how to manage stress in various modern social activities, for example, to improve production efficiency and work efficiency. It becomes possible.
しかしながら、上記のように、被験者のストレス状態を把握する技術及び特許発明は公知であるが、従来のような手法によれば被験者が感じているストレスを総体的に捉え、被験者が感じているストレスの種類に基づいた質的分析を行うことはできない。However, as described above, although the technique and the patented invention for grasping the stress state of the subject are known, the stress felt by the subject is generally grasped by the conventional method, and the stress felt by the subject is grasped as a whole. It is not possible to perform a qualitative analysis based on the type of.
本願発明によれば、被検者に応じてストレスの種類を分類して把握することにより、ストレッサーと被検者によるストレス反応との関係を、より詳細に把握することが可能となる。その結果、ストレッサーとなっている社会的環境等と人間との関係性をより正確に分析、検討することができ、様々な社会的環境分野へ適用して問題解決を図ることができると共に、様々な産業分野へ適用し、生産効率の向上、産業活動の促進を促すことが可能となる。According to the present invention, by classifying and grasping the types of stress according to the subject, it is possible to grasp the relationship between the stressor and the stress response by the subject in more detail. As a result, the relationship between humans and the social environment, which is a stressor, can be analyzed and examined more accurately, and it can be applied to various social environment fields to solve problems and various problems. It can be applied to various industrial fields to improve production efficiency and promote industrial activities.

このストレス対処様式判定システムによれば、被検者の生体情報と平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちのいずれかにより特定される応答パターンとに基づいて、その被検者のストレス対処様式を詳細かつ正確に判定することができる。According to this stress coping mode determination system, the biological information of the subject and the response pattern specified by any one of the mean blood pressure, heart rate, cardiac output, stroke volume and total peripheral resistance are obtained. Based on this, the stress coping mode of the subject can be determined in detail and accurately.

このストレス対処様式判定システムによれば、被検者の顔面画像を非接触状態で取得し、その顔面画像と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を、従来のように連続血圧計を使用することないため、被験者を拘束せず身体的負担をかけることなく、かつ迅速に判定することができる。According to this stress coping style determination system, a face image of a subject is acquired in a non-contact state, and the stress coping style of the subject is based on the face image and the response pattern specified by the blood circulation dynamics parameter. Since the continuous blood pressure monitor is not used as in the conventional case, the subject can be quickly determined without restraining the subject and without imposing a physical burden.

このストレス対処様式判定システムによれば、被検者の生体情報を非接触状態で取得し、その生体情報に基づいて、その被検者のストレス対処様式が、「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定することができる。According to this stress coping style determination system, the subject's biological information is acquired in a non-contact state, and the stress coping style of the subject is "active coping" or "passive" based on the bioinformation. It is possible to determine which of the response patterns, "Coping" and "No coping", is shown.
従って、ストレス対処様式を、前記「能動的対処」、「受動的対処」及び「対処なし」の3種類の応答パターンに分類できることから、この応答パターンに基づき分析を行い、その分析結果を様々な産業分野の人事管理業務、品質管理業務等に適用し、様々な業務の品質向上に寄与することが可能となる。Therefore, the stress coping style can be classified into the three types of response patterns of "active coping", "passive coping", and "no coping". Therefore, analysis is performed based on this response pattern, and the analysis results are various. It can be applied to personnel management work, quality control work, etc. in the industrial field and contribute to quality improvement of various work.

このストレス対処様式判定システムによれば、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶し、被検者の生体情報と各空間的特徴量とに基づいて、その被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定することができる。According to this stress coping style determination system, the spatial features corresponding to "active coping", the spatial features corresponding to "passive coping", and the spatial features corresponding to "no coping" are memorized. , Based on the subject's biological information and each spatial feature, the subject's stress coping mode is any response pattern of "active coping", "passive coping", and "no coping". It can be determined whether the format indicates.

このストレス対処様式判定システムによれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。According to this stress coping style determination system, the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.

請求項2のストレス対処様式判定システムによれば、被検者の顔面熱画像または顔面可視画像を非接触状態で取得し、その顔面熱画像または顔面可視画像と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を心理生理学に基づいて判定することができる。According to the stress coping mode determination system of claim 2, the facial thermal image or facial visible image of the subject is acquired in a non-contact state, and the response pattern specified by the facial thermal image or facial visible image and the hemodynamic parameter. Based on the above, the stress coping mode of the subject can be determined based on psychophysiology.

請求項3のストレス対処様式判定システムによれば、被験者の顔面の特定部位の状態と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を容易かつ正確に判定することができる。According to the stress coping style determination system of claim 3, the stress coping style of the subject is easily and accurately determined based on the state of a specific part of the face of the subject and the response pattern specified by the hemodynamic parameters. can do.

請求項4のストレス対処様式判定システムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被検者のストレス対処様式を非接触状態で高精度に判定することができる。According to the stress coping style determination system of claim 4, since the spatial feature amount can be quantified with high accuracy by the fractal dimension, the stress coping style of the subject can be determined with high accuracy in a non-contact state.

請求項5のプログラムによれば、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量と被検者の顔面画像と、に基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定するシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。According to the program of claim 5, the spatial feature amount corresponding to "active coping", the spatial feature amount corresponding to "passive coping", the spatial feature amount corresponding to "no coping", and the subject. Based on the facial image of the subject, a system for determining whether the stress coping style of the subject shows a response pattern of "active coping", "passive coping", and "no coping". It can be realized by using one or a plurality of computers that work in cooperation with each other.

このプログラムによれば、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更するとともに、抽出した空間的特徴量を記憶するシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。According to this program, a plurality of learning facial images labeled corresponding to "active coping", "passive coping", and "no coping" are stored, and spatial features of the learning facial image are stored. The quantity is extracted using the trained model, and the extraction accuracy of the spatial feature quantity is increased based on the relationship between the extraction result and the label attached to the learning facial image to be extracted. A system for changing the network parameters of the trained model and storing the extracted spatial features can be realized by using one computer or a plurality of computers working in cooperation with each other.

請求項6のプログラムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被検者のストレス対処様式を非接触状態でより高精度に判定することができるシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。According to the program of claim 6, since the spatial features can be quantified with high accuracy by the fractal dimension, a system capable of determining the stress coping mode of the subject with higher accuracy in a non-contact state can be described. Alternatively, it can be realized by using a plurality of computers that work in cooperation with each other.

請求項7のストレス対処様式判定方法によれば、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定することができるので、被験者に行動的制約を与えることなく、被験者が感じているストレスの種類を把握することが可能になる。According to the stress coping mode determination method of claim 7, the biological information of the subject is acquired in a non-contact state, and the subject's biological information is based on the biological information and the response pattern specified by the hemodynamic parameter. Since the stress coping mode can be determined in a non-contact state, it is possible to grasp the type of stress felt by the subject without imposing behavioral restrictions on the subject.

請求項8の学習装置によれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。According to the learning device of claim 8, the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.

請求項9の学習装置によれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更することができる。According to the learning device of claim 9, since the spatial features can be quantified with high accuracy by the fractal dimension, the network parameters of the trained model so that the extraction accuracy of the spatial features of the facial image of the subject becomes higher. Can be changed.

請求項10の学習方法によれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。According to the learning method of claim 10, the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.

請求項11の学習方法によれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更することができる。According to the learning method of claim 11, since the spatial features can be quantified with high accuracy by the fractal dimension, the network parameters of the trained model so that the extraction accuracy of the spatial features of the facial image of the subject becomes higher. Can be changed.

請求項12のプログラムによれば、これを一又は互いに連携して働く複数のコンピュータにインストールし実行することにより、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する学習装置が実現される。According to the program of claim 12, by installing and executing this on one computer or a plurality of computers working in cooperation with each other, the trained model is designed so that the extraction accuracy of the spatial feature amount of the facial image of the subject is improved. A learning device that changes network parameters is realized.

請求項13のプログラムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、このプログラムを一又は互いに連携して働く複数のコンピュータにインストールし実行することにより、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更する学習装置が実現される。According to the program of claim 13, the spatial feature amount can be quantified with high accuracy by the fractal dimension. Therefore, by installing and executing this program on one computer or a plurality of computers working in cooperation with each other, a facial image of a subject is obtained. A learning device that changes the network parameters of the trained model so that the extraction accuracy of the spatial feature quantity of the above is higher is realized.

請求項14の学習済モデルによれば、これに被験者の顔面画像を入力することにより、当該被験者の顔面画像の空間的特徴量を抽出することができる。According to the trained model of claim 14, by inputting the facial image of the subject into the model, the spatial feature amount of the facial image of the subject can be extracted.

請求項15の学習済モデルによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、この学習済モデルに被験者の顔面画像を入力することにより、当該被験者の顔面画像の空間的特徴量を高精度に抽出することができる。According to the trained model of claim 15, the spatial features can be quantified with high accuracy by the fractal dimension. Therefore, by inputting the facial image of the subject into the trained model, the spatial image of the subject is spatially. Features can be extracted with high accuracy.

本発明に係るストレス対処様式判定システムの一実施形態のブロック図である。It is a block diagram of one Embodiment of the stress coping style determination system which concerns on this invention. 図1のストレス対処様式判定システムを構成する判定装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the determination apparatus which comprises the stress coping style determination system of FIG. (A)は「能動的対処」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。(B)は「受動的対処」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。(C)は「対処なし」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。(A) is an explanatory diagram conceptually exemplifying a group of facial images for learning labeled as "active coping". (B) is an explanatory diagram conceptually exemplifying a group of facial images for learning labeled as "passive coping". (C) is an explanatory diagram conceptually exemplifying a group of facial images for learning labeled as "no action". 図1のストレス対処様式判定システムを構成する学習装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the learning apparatus which comprises the stress coping style determination system of FIG. 実験例1の先行研究の血行力学パターン反応を示す表である。It is a table which shows the hemodynamic pattern reaction of the previous study of Experimental Example 1. 計測システムを示す概念図である。It is a conceptual diagram which shows the measurement system. 鏡描写課題を示す概念図である。It is a conceptual diagram which shows a mirror drawing task. MBP(平均血圧)の時系列変化を示すグラフである。It is a graph which shows the time series change of MBP (mean blood pressure). CNN(畳込みニューラルネットワーク)の構造を示す模式図である。It is a schematic diagram which shows the structure of CNN (convolutional neural network). 畳み込み層のフィルタサイズ、ストライド、フィルタ枚数を示す表である。It is a table which shows the filter size, stride, and the number of filters of a convolution layer. プーリング層のフィルタサイズ、ストライドを示す表である。It is a table which shows the filter size and stride of a pooling layer. 各被検者の能動的対処、受動的対処、及び対処なしの各場合における顔面の特徴を示し、熱画像と顔面の特徴マップを対比して示す図である。It is a figure which shows the facial feature in each case of active coping, passive coping, and no coping of each subject, and contrasts a thermal image with a facial feature map. 実験例2の実験プロトコルを示す概念図である。It is a conceptual diagram which shows the experimental protocol of Experimental Example 2. 嗜好度と集中度の関係を示すグラフである。It is a graph which shows the relationship between the degree of preference and the degree of concentration. 被検者への脳波電極配置状態と計測システムとを示す図である。It is a figure which shows the electroencephalogram electrode arrangement state to the subject, and the measurement system. 「ポジティブ」コンテンツに対する多面的感情尺度の変動を示す表である。A table showing changes in the multifaceted emotional scale for "positive" content. 「ネガティブ」コンテンツに対する多面的感情尺度の変動を示す表である。A table showing changes in the multifaceted emotional scale for "negative" content. 「ホラー(集中)」コンテンツに対する多面的感情尺度の変動を示す表である。It is a table showing changes in the multifaceted emotional scale for "horror (concentrated)" content. 「ホラー(非集中)」コンテンツに対する多面的感情尺度の変動を示す表である。It is a table showing the fluctuation of the multifaceted emotional scale for "horror (non-concentrated)" content. 「ポジティブ」コンテンツに対する主観的心理指標の変動を示す表である。It is a table showing the fluctuation of the subjective psychological index for "positive" content. 「ネガティブ」コンテンツに対する主観的心理指標の変動を示すグラフである。It is a graph which shows the fluctuation of the subjective psychological index for "negative" content. 「ホラー(集中)」コンテンツに対する主観的心理指標の変動を示す表である。It is a table showing the fluctuation of the subjective psychological index for "horror (concentration)" content. 「ホラー(非集中)」コンテンツに対する主観的心理指標の変動を示すグラフである。It is a graph which shows the fluctuation of the subjective psychological index for "horror (non-concentrated)" content. 「ポジティブ」「ネガティブ」コンテンツ視聴に対する生理指標の時系列変動を示す表である。It is a table showing the time-series fluctuation of the physiological index for "positive" and "negative" content viewing. 各コンテンツに対する生理指標の評価を示す表である。It is a table which shows the evaluation of the physiological index for each content. 「ホラー(集中)」及び「ホラー(非集中)」コンテンツ視聴に対する生理指標の時系列変動を示すグラフである。It is a graph which shows the time-series variation of the physiological index with respect to "horror (concentration)" and "horror (non-concentration)" content viewing. TVコンテンツに対する嗜好と視聴様態の関係を示すグラフである。It is a graph which shows the relationship between the preference for TV content and the viewing mode. 実験例3の実験プロトコルを示す概念図である。It is a conceptual diagram which shows the experimental protocol of Experimental Example 3. 実験プロトコルを示す概念図である。It is a conceptual diagram which shows the experimental protocol. 「興奮−鎮静」「ストレス対処様態」「嗜好」の推定に用いたニューラルネットワークの構造を示す表である。It is a table which shows the structure of the neural network used for the estimation of "excitement-sedation", "stress coping mode", and "preference". 特徴ベクトルの抽出方法を示すグラフである。It is a graph which shows the extraction method of a feature vector. 各コンテンツに対する主観的心理指標の評価を示す表である。It is a table which shows the evaluation of the subjective psychological index for each content. 各コンテンツに対する生理指標の評価を示す表である。It is a table which shows the evaluation of the physiological index for each content. TVコンテンツに対する嗜好と視聴様態の正判別率を示す表である。It is a table which shows the preference for TV contents and the correct discrimination rate of a viewing mode. TVコンテンツに対する嗜好および視聴様態の正判別率を示すグラフである。It is a graph which shows the positive discrimination rate of a preference for a TV content and a viewing mode. 「興奮−鎮静」状態の実測値と推定値の時間的変動を示すグラフである。It is a graph which shows the time variation of the measured value and the estimated value of the "excitement-sedation" state. 「興奮−鎮静」状態の推定誤差を示すグラフである。It is a graph which shows the estimation error of the "excitement-sedation" state. 「興奮−鎮静」状態の実測値と推定値の関係を示すグラフである。It is a graph which shows the relationship between the measured value and the estimated value of the "excitement-sedation" state. 空間的特徴量としてフラクタル次元を求める方法を例示するフローチャートである。It is a flowchart which illustrates the method of finding the fractal dimension as a spatial feature quantity. 図39中のクラスタリング処理の実施例を示す説明図である。It is explanatory drawing which shows the example of the clustering process in FIG. 39. 図39中の画像抽出処理及びエッジ抽出処理の実施例を示す説明図である。It is explanatory drawing which shows the Example of the image extraction process and the edge extraction process in FIG. 39. 図39中のフラクタル解析処理の実施例を示す説明図である。It is explanatory drawing which shows the example of the fractal analysis processing in FIG. 39.

以下、添付図面を参照して、本発明の一実施形態について説明する。
[構成]
図1に示す一実施形態のストレス対処様式判定システム100は、生体情報取得装置(生体情報取得部)110と、判定装置(判定部)120と、学習装置(機械学習部)130と、を有する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
[Constitution]
The stress coping style determination system 100 of one embodiment shown in FIG. 1 includes a biological information acquisition device (biological information acquisition unit) 110, a determination device (determination unit) 120, and a learning device (machine learning unit) 130. ..

生体情報取得装置110は、被検者Pの生体情報を非接触状態で取得するための装置である。
生体情報の最も好適な例として、顔面画像IFを挙げることができる。以下の説明では、生体情報として顔面画像IFを用いた場合について説明する。
The biological information acquisition device 110 is a device for acquiring the biological information of the subject P in a non-contact state.
Facial image IF can be mentioned as the most preferable example of biological information. In the following description, the case where the facial image IF is used as the biological information will be described.

顔面画像IFは、顔面熱画像であっても顔面可視画像であってもよい。顔面画像IFが顔面熱画像である場合には、生体情報取得装置110として、赤外線サーモグラフィが用いられる。顔面画像IFが顔面可視画像である場合には、生体情報取得装置110として、可視画像撮像装置としての、いわゆるカメラが用いられる。
上記のように、「顔面可視画像」は一般に広く使用されているカメラ、即ち、結像するための光学系を有し映像を撮影するための装置により被検者の顔面を撮影して得られるカラー画像である。また、「顔面熱画像」とは、被検者の顔面から放射される赤外線を分析し、熱分布を図として表した画像であり、赤外線サーモグラフィにより撮影して得られるものである。
この場合、カメラにより撮影される映像の場合には可視光(380nm〜800nmの波長)によるものであり、一方、赤外線サーモグラフィによる熱分布画像は赤外線(800nm以上の波長)によるものであることから、いずれの場合も単に波長の相違のみであることから、赤外線サーモグラフィであってもまた一般のカメラであっても、生体情報取得装置110として使用することができる。
The facial image IF may be a facial thermal image or a facial visible image. When the facial image IF is a facial thermal image, infrared thermography is used as the biological information acquisition device 110. When the face image IF is a face visible image, a so-called camera as a visible image imaging device is used as the biological information acquisition device 110.
As described above, the "face visible image" is obtained by photographing the face of the subject with a generally widely used camera, that is, a device having an optical system for forming an image and taking an image. It is a color image. The "facial thermal image" is an image in which infrared rays radiated from the face of a subject are analyzed and the heat distribution is represented as a diagram, and is obtained by taking an image by infrared thermography.
In this case, in the case of the image taken by the camera, it is due to visible light (wavelength of 380 nm to 800 nm), while the heat distribution image by infrared thermography is due to infrared rays (wavelength of 800 nm or more). In either case, since there is only a difference in wavelength, both infrared thermography and a general camera can be used as the biometric information acquisition device 110.

判定装置120は、本発明に係るプログラムを汎用のコンピュータにインストールし実行することにより実現される。 The determination device 120 is realized by installing and executing the program according to the present invention on a general-purpose computer.

判定装置120は、生体情報取得装置110により取得した顔面画像IFと予め特定した応答パターンとに基づいて被験者のストレス対処様式を判定する機能を有する装置である。応答パターンには、「能動的対処」(パターンI)、「受動的対処」(パターンII)及び「対処なし」(パターンIII)からなる三種類のパターンが含まれる。応答パターンは、血行力学パラメータにより特定される。血行力学パラメータは、平均血圧(MBP)、心拍数(HR)、心拍出量(CO)、一回拍出量(SV)及び全末梢抵抗(TPR)のうちの複数のパラメータを含む。 The determination device 120 is a device having a function of determining the stress coping mode of the subject based on the facial image IF acquired by the biological information acquisition device 110 and the response pattern specified in advance. The response pattern includes three types of patterns consisting of "active coping" (pattern I), "passive coping" (pattern II) and "no coping" (pattern III). The response pattern is specified by hemodynamic parameters. Hemodynamic parameters include multiple parameters of mean blood pressure (MBP), heart rate (HR), cardiac output (CO), stroke volume (SV) and total peripheral resistance (TPR).

判定装置120は、判定用特徴量記憶部121と、特定部位反応検出部122と、応答パターン判定部123と、を有する。 The determination device 120 includes a determination feature amount storage unit 121, a specific site reaction detection unit 122, and a response pattern determination unit 123.

判定用特徴量記憶部121は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している機能ブロックである。判定用特徴量記憶部121に記憶されている空間的特徴量は、学習装置130により抽出された空間的特徴量である。顔面画像IFが顔面熱画像の場合、空間的特徴量の例として、顔面皮膚温度分布を挙げることができる。 The determination feature amount storage unit 121 stores the spatial feature amount corresponding to "active coping", the spatial feature amount corresponding to "passive coping", and the spatial feature amount corresponding to "no coping". It is a functional block. The spatial feature amount stored in the determination feature amount storage unit 121 is the spatial feature amount extracted by the learning device 130. When the facial image IF is a facial thermal image, the facial skin temperature distribution can be mentioned as an example of the spatial feature amount.

特定部位反応検出部122は、顔面画像IFに含まれる被験者Pの顔面の解剖学的特定部位のストレス応答を検出する機能ブロックである。解剖学的特定部位は、個人差に依るところが比較的小さい部位として解剖学的所見から特定される一又は複数の部位である。解剖学的特定部位の例として、鼻頂部を挙げることができる。 The specific site reaction detection unit 122 is a functional block that detects the stress response of the anatomical specific site of the face of the subject P included in the facial image IF. The anatomical specific site is one or more sites identified from anatomical findings as a site that is relatively small depending on individual differences. An example of an anatomically specific site is the crown of the nose.

応答パターン判定部123は、特定部位反応検出部122により検出されたストレス応答と判定用特徴量記憶部121に記憶されている各空間的特徴量とに基づいて、被験者Pのストレス対処様式が「能動的対処」(パターンI)、「受動的対処」(パターンII)及び「対処なし」(パターンIII)のうちのいずれの応答パターンを示す様式であるか判定する機能ブロックである。 In the response pattern determination unit 123, the stress coping mode of the subject P is set based on the stress response detected by the specific site reaction detection unit 122 and each spatial feature amount stored in the determination feature amount storage unit 121. It is a functional block that determines which of the response patterns of "active coping" (pattern I), "passive coping" (pattern II), and "no coping" (pattern III) is exhibited.

学習装置130は、学習用データ記憶部131と、特徴量抽出部132と、特徴量学習部133と、を有する。学習装置130は、本発明に係るプログラムを汎用のコンピュータにインストールし実行することにより実現される。 The learning device 130 includes a learning data storage unit 131, a feature amount extraction unit 132, and a feature amount learning unit 133. The learning device 130 is realized by installing and executing the program according to the present invention on a general-purpose computer.

学習用データ記憶部131は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを記憶している機能ブロックである。図2には、学習用顔面画像LGが概念的に例示されている。図2(A)に示すLGA1、LGA2、LGA3、・・・は、「能動的対処」のラベルが付された学習用顔面画像群である。図2(B)に示すLGB1、LGB2、LGB3、・・・は、「受動的対処」のラベルが付された学習用顔面画像群である。また、図2(C)に示すLGC1、LGC2、LGC3、・・・は、「対処なし」のラベルが付された学習用顔面画像群である。 The learning data storage unit 131 is a functional block that stores a plurality of learning facial image LGs labeled corresponding to each of "active coping", "passive coping", and "no coping". .. FIG. 2 conceptually illustrates the learning facial image LG. LGA1, LGA2, LGA3, ... Shown in FIG. 2 (A) are a group of facial images for learning labeled as "active coping". LGB1, LGB2, LGB3, ... Shown in FIG. 2B are a group of facial images for learning labeled as "passive coping". Further, LGC1, LGC2, LGC3, ... Shown in FIG. 2C are a group of facial images for learning labeled as "no action".

特徴量抽出部132は、学習用顔面画像LGから顔面画像の空間的特徴量を学習済モデル134を用いて抽出する機能ブロックである。学習済モデル134は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像LGを教師データに用いて、学習用顔面画像LGに含められる被験者Pの顔面画像の空間的特徴量を機械学習することにより生成される。 The feature amount extraction unit 132 is a functional block that extracts the spatial feature amount of the face image from the learning face image LG by using the trained model 134. The trained model 134 uses a plurality of learning face image LGs labeled corresponding to the response patterns specified by the hemodynamic parameters as the teacher data, and includes the face image of the subject P included in the learning face image LG. It is generated by machine learning the spatial features of.

特徴量学習部133は、特徴量抽出部132による抽出結果とその抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、特徴量抽出部132による空間的特徴量の抽出精度が高くなるように学習済モデル134のネットワークパラメータを変更する機能ブロックである。 The feature amount learning unit 133 is based on the relationship between the extraction result by the feature amount extraction unit 132 and the label attached to the learning facial image LG as the extraction target, and the spatial feature amount by the feature amount extraction unit 132. This is a functional block that changes the network parameters of the trained model 134 so that the extraction accuracy of the model 134 is high.

[動作]
つぎに、上記のように構成されたストレス対処様式判定システム100の判定装置120及び学習装置130における処理の流れを、図3及び図4のフローチャートに従って説明する。
[motion]
Next, the flow of processing in the determination device 120 and the learning device 130 of the stress coping style determination system 100 configured as described above will be described with reference to the flowcharts of FIGS. 3 and 4.

判定装置120は、図2に示すように、判定用特徴量記憶処理S1、特定部位反応検出処理S2及び応答パターン判定処理S3を実行する。 As shown in FIG. 2, the determination device 120 executes the determination feature amount storage process S1, the specific site reaction detection process S2, and the response pattern determination process S3.

判定用特徴量記憶処理S1は、学習装置130により抽出された空間的特徴量すなわち、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を判定用特徴量記憶部121に記憶する処理である。 The determination feature amount storage process S1 is a spatial feature amount extracted by the learning device 130, that is, a spatial feature amount corresponding to "active coping", a spatial feature amount corresponding to "passive coping", and "coping". This is a process of storing the spatial feature amount corresponding to “none” in the determination feature amount storage unit 121.

特定部位反応検出処理S2は、生体情報取得装置110により撮像された顔面画像IFに含まれる被験者Pの顔面の解剖学的特定部位のストレス応答を検出する処理である。 The specific site reaction detection process S2 is a process for detecting the stress response of the anatomical specific site of the face of the subject P included in the facial image IF captured by the biological information acquisition device 110.

応答パターン判定処理S3は、特定部位反応検出処理S2により検出されたストレス応答と判定用特徴量記憶部121に記憶されている各空間的特徴量とに基づいて、被験者Pのストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する処理である。 In the response pattern determination process S3, the stress coping mode of the subject P is set based on the stress response detected by the specific site reaction detection process S2 and each spatial feature amount stored in the determination feature amount storage unit 121. It is a process of determining which of the response patterns of "active coping", "passive coping", and "no coping" is shown.

学習装置130は、図4に示すように、学習用データ記憶処理S11、特徴量抽出処理S12及び特徴量学習処理S13を実行する。 As shown in FIG. 4, the learning device 130 executes the learning data storage process S11, the feature amount extraction process S12, and the feature amount learning process S13.

学習用データ記憶処理S11は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを学習用データ記憶部131に記憶する処理である。 The learning data storage process S11 stores a plurality of learning facial image LGs labeled corresponding to each of "active coping", "passive coping", and "no coping" in the learning data storage unit 131. It is a process to do.

特徴量抽出処理S12は、学習用顔面画像LGから、学習用顔面画像LGに含まれる被験者の顔面画像の空間的特徴量を学習済モデル134を用いて抽出する処理である。 The feature amount extraction process S12 is a process of extracting the spatial feature amount of the subject's face image included in the learning face image LG from the learning face image LG by using the trained model 134.

特徴量学習処理S13は、特徴量抽出処理S12による抽出結果とその抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、特徴量抽出処理S12による特徴量の抽出精度が高くなるように学習済モデル134のネットワークパラメータを変更する処理である。 The feature amount learning process S13 extracts the feature amount by the feature amount extraction process S12 based on the relationship between the extraction result by the feature amount extraction process S12 and the label attached to the learning facial image LG as the extraction target. This is a process of changing the network parameters of the trained model 134 so as to increase the accuracy.

[空間的特徴量]
本実施例では、空間的特徴量として、顔面画像IFに基づいて算出されるフラクタル次元を用いることができる。フラクタル次元を用いることにより、空間的特徴量を容易に且つ高確度に数値化することができる。
[Spatial features]
In this embodiment, the fractal dimension calculated based on the facial image IF can be used as the spatial feature amount. By using the fractal dimension, the spatial features can be easily and highly accurately quantified.

空間的特徴量としてのフラクタル次元を求める方法は任意である。図39に例示する処理フローでは、クラスタリング処理S21、画像抽出処理S22、エッジ抽出処理S23及びフラクタル解析処理S24からなる一連の処理を実行することによりフラクタル次元を求めている。 The method of finding the fractal dimension as a spatial feature is arbitrary. In the processing flow illustrated in FIG. 39, the fractal dimension is obtained by executing a series of processes including the clustering process S21, the image extraction process S22, the edge extraction process S23, and the fractal analysis process S24.

クラスタリング処理S21は、顔面画像IFを温度分布に関してクラスタリングする処理である。クラスタリングの手法は任意であるが、本実施形態に好適な手法として、Fuzzy-c-means法を挙げることができる。Fuzzy-c-means法は、あるデータ群がクラスタに属するか否かの二者択一の問題を考えるのではなく、データが唯一のクラスタに完全に属するという状況(k−means法)の他にも、複数のクラスタにある程度ずつ属していると仮定し、データのクラスタへの所属の度合(帰属度)をあいまいに示す手法である。図40には、クラスタ数を12に設定して入力画像(顔面画像IF)をクラスタリングした例が示されている。図40の例では、cluster1は最も低い温度分布に帰属し、cluster12は最も高い温度分布に帰属する。 The clustering process S21 is a process of clustering the facial image IF with respect to the temperature distribution. Although the clustering method is arbitrary, the Fuzzy-c-means method can be mentioned as a method suitable for this embodiment. The Fuzzy-c-means method does not consider the alternative question of whether or not a certain data group belongs to a cluster, but other than the situation where the data completely belongs to a single cluster (k-means method). In addition, it is a method that vaguely indicates the degree of belonging (attribution) of data to a cluster, assuming that it belongs to a plurality of clusters to some extent. FIG. 40 shows an example in which the number of clusters is set to 12 and the input image (face image IF) is clustered. In the example of FIG. 40, cluster1 belongs to the lowest temperature distribution and cluster12 belongs to the highest temperature distribution.

画像抽出処理S22は、クラスタリング処理S21により得られた複数のクラスタの画像から所定の温度以上の温度領域の温度分布のクラスタの画像を抽出する処理である。図41の例では、図40に例示したcluster1〜12の画像のうち、顔領域の温度を含んだ帰属度画像であるcluster8〜12の画像が抽出されている。 The image extraction process S22 is a process of extracting an image of a cluster having a temperature distribution in a temperature region equal to or higher than a predetermined temperature from an image of a plurality of clusters obtained by the clustering process S21. In the example of FIG. 41, from the images of clusters 1 to 12 illustrated in FIG. 40, the images of clusters 8 to 12, which are attribution images including the temperature of the face region, are extracted.

エッジ抽出処理S23は、画像抽出処理S22により抽出された画像のエッジ部分を検出し、当該エッジ部分により表わされる線分からなるエッジ図形を生成する処理である。エッジ検出の手法は任意であるが、本実施形態に好適な手法として、Canny法を挙げることができる。canny法は、ガウシアンフィルタによるノイズ除去処理、ソーベルフィルタによる輝度勾配(エッジ)抽出処理、エッジの強さが極大になる部分以外の部位を除去する非極大抑制処理、及び、正しいエッジかどうかをヒステリシスを使った閾値により判定するヒステリシス閾値処理を経てエッジを検出する手法である。図41の例では、cluster8〜12の画像のエッジ部分がcanny法により検出され、エッジ部分により表わされる線分からなるエッジ図形が生成されている。 The edge extraction process S23 is a process of detecting an edge portion of the image extracted by the image extraction process S22 and generating an edge figure composed of a line segment represented by the edge portion. Although the edge detection method is arbitrary, the Canny method can be mentioned as a method suitable for this embodiment. The canny method uses a Gaussian filter for noise removal processing, a Sobel filter for brightness gradient (edge) extraction processing, non-maximum suppression processing for removing parts other than the part where the edge strength is maximized, and whether or not the edge is correct. This is a method of detecting an edge through a hysteresis threshold value determination based on a threshold value using hysteresis. In the example of FIG. 41, the edge portions of the images of clusters 8 to 12 are detected by the canny method, and an edge figure composed of a line segment represented by the edge portions is generated.

フラクタル解析処理S24は、エッジ抽出処理S23により生成されたエッジ図形のフラクタル次元を求める処理である。フラクタル次元は、図形や現象の自己相似性や複雑性を定量的に表す指標であり、一般的に非整数値になる。フラクタル解析の手法は任意であるが、本実施形態に好適な手法として、ボックスカウンティング法を挙げることができる。ボックスカウンティング法は、解析対象の図形を正方形のボックス(格子状)に分割したときに、ボックスの大きさと図形を含むボックスの総数との関係を両対数グラフ上で直線近似したときの直線の傾きの絶対値からフラクタル次元を求める方法である。 The fractal analysis process S24 is a process for obtaining the fractal dimension of the edge figure generated by the edge extraction process S23. The fractal dimension is an index that quantitatively expresses the self-similarity and complexity of figures and phenomena, and is generally a non-integer value. The method of fractal analysis is arbitrary, but a box counting method can be mentioned as a method suitable for this embodiment. In the box counting method, when the figure to be analyzed is divided into square boxes (lattice), the slope of the straight line when the relationship between the size of the box and the total number of boxes including the figure is linearly approximated on a log-log graph. This is a method of finding the fractal dimension from the absolute value of.

フラクタル次元(D)の計算式は、下記の式で表される。rはボックスの大きさであり、N(r)はボックスの個数である。

Figure 0006896925
The formula for calculating the fractal dimension (D) is expressed by the following formula. r is the size of the box and N (r) is the number of boxes.
Figure 0006896925

図42には、図41中のcluster12のエッジ図形のフラクタル次元の算出例が示されている。この例では、cluster12のエッジ図形について、rを2〜128の範囲で変動させ、rとN(r)を両対数グラフ上にプロットすることにより、1.349という値が得られている。 FIG. 42 shows an example of calculating the fractal dimension of the edge figure of cluster 12 in FIG. 41. In this example, for the edge figure of cluster12, r is varied in the range of 2 to 128 and r and N (r) are plotted on a log-log graph to obtain a value of 1.349.

[作用・効果]
上記のように構成されたストレス対処様式判定システム100においては、被験者Pの顔面画像IFが生体情報取得装置110により撮像される。撮像された顔面画像IFは、判定装置120に入力される。判定装置120は、入力された顔面画像IFと、血行力学パラメータすなわち、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちのいずれかにより特定される応答パターン(パターンI、II及びIII)と、に基づいて、その被検者Pのストレス対処様式がパターンI、II及びIIIのうちのどのパターンを示す様式であるか判定する。
[Action / Effect]
In the stress coping style determination system 100 configured as described above, the facial image IF of the subject P is imaged by the biological information acquisition device 110. The captured facial image IF is input to the determination device 120. The determination device 120 receives the input facial image IF and a response pattern specified by any of hemodynamic parameters, that is, mean blood pressure, heart rate, cardiac output, stroke volume, and total peripheral resistance. Based on patterns I, II and III), it is determined which of the patterns I, II and III the stress coping mode of the subject P is.

したがって、このストレス対処様式判定システム100によれば、被験者Pの顔面画像IFに基づいて、非接触状態で、被験者Pのストレス対処様式を判定することができるので、被験者Pに行動的制約を与えることなく、被験者Pが感じているストレスの種類を把握することができる。 Therefore, according to this stress coping style determination system 100, the stress coping style of the subject P can be determined in a non-contact state based on the facial image IF of the subject P, so that the subject P is given a behavioral constraint. It is possible to grasp the type of stress felt by the subject P without having to do so.

また、このストレス対処様式判定システム100は、被験者Pの顔面画像IFに含まれる顔面の解剖学的特定部位の反応と応答パターン(パターンI、II及びIII)とに基づいて、その被検者Pのストレス対処様式を判定する。解剖学的特定部位は、個人差に依るところが比較的小さい部位として解剖学的所見から特定される一又は複数の部位である。 Further, the stress coping mode determination system 100 is based on the reaction and response pattern (patterns I, II and III) of the anatomically specific part of the face included in the facial image IF of the subject P, and the subject P is the subject P. Judge the stress coping style of. The anatomical specific site is one or more sites identified from anatomical findings as a site that is relatively small depending on individual differences.

したがって、このストレス対処様式判定システム100によれば、ストレス対処様式判定のための汎用システムを構築することができる。 Therefore, according to the stress coping style determination system 100, a general-purpose system for determining the stress coping style can be constructed.

また、このストレス対処様式判定システム100は、「能動的対処」に対応する特徴量、「受動的対処」に対応する特徴量及び「対処なし」に対応する特徴量を、学習装置130により抽出する。学習装置130は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを記憶し、それらの学習用顔面画像LGから顔面画像の空間的特徴量を学習済モデル134を用いて抽出し、その抽出結果と抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルLGのネットワークパラメータを変更する。学習済モデルLGの学習が進むにつれて、顔面画像の空間的特徴量の抽出精度が向上し、判定用特徴量記憶部121に記憶される空間的特徴量の精度も向上する。 Further, the stress coping style determination system 100 extracts the feature amount corresponding to "active coping", the feature amount corresponding to "passive coping", and the feature amount corresponding to "no coping" by the learning device 130. .. The learning device 130 stores a plurality of learning facial image LGs labeled corresponding to "active coping", "passive coping", and "no coping", and from the learning facial image LGs. The spatial feature amount of the facial image is extracted using the trained model 134, and the spatial feature of the facial image is spatially based on the relationship between the extraction result and the label attached to the learning facial image LG as the extraction target. The network parameters of the trained model LG are changed so that the extraction accuracy of the feature amount becomes high. As the learning of the trained model LG progresses, the accuracy of extracting the spatial features of the facial image is improved, and the accuracy of the spatial features stored in the determination feature storage unit 121 is also improved.

したがって、このストレス対処様式判定システム100によれば、学習装置130における学習済モデルLGの学習が進むにつれて、ストレス対処様式の判定精度を向上させることができる。 Therefore, according to the stress coping style determination system 100, the determination accuracy of the stress coping mode can be improved as the learning of the learned model LG in the learning device 130 progresses.

また、このストレス対処様式判定システムによれば、空間的特徴量をフラクタル次元により数値化することで、ストレス対処様式の判定精度をより向上させることができる。 Further, according to this stress coping style determination system, the determination accuracy of the stress coping style can be further improved by quantifying the spatial feature amount by the fractal dimension.

なお、本発明は上記実施形態に限定されない。たとえば、上記実施形態では、ストレス対処様式判定システム100が学習装置130を備えているが、学習装置130は省略可能である。学習装置130を省略した場合、学習装置130以外の手段により抽出或いは生成した空間的特徴量が判定装置120の判定用特徴量記憶部121に記憶される。 The present invention is not limited to the above embodiment. For example, in the above embodiment, the stress coping style determination system 100 includes the learning device 130, but the learning device 130 can be omitted. When the learning device 130 is omitted, the spatial feature amount extracted or generated by means other than the learning device 130 is stored in the determination feature amount storage unit 121 of the determination device 120.

<実験例1>
以下に、本実施の形態に係る判定用特徴量記憶部121に記憶されている特徴量のデータを収集するための一実験例を示す。
<Experimental example 1>
An example of an experiment for collecting feature amount data stored in the determination feature amount storage unit 121 according to the present embodiment is shown below.

1.実験方法
実験は25。0±1。5℃のシールドルーム内で行い,被験者は18〜21歳の健常成人男性8名で実施した。計測システムを図6に示す。被験者は着座し,左手中指第二関節に連続血圧・血行力学動態測定器(Finometer model2,Finapres Medical Systems B。V社製)の測定カフを装着した。
1. 1. Experimental method The experiment was conducted in a shielded room at 25.0 ± 1.5 ° C., and the subjects were 8 healthy adult males aged 18 to 21 years. The measurement system is shown in FIG. The subject was seated and was fitted with a measuring cuff of a continuous blood pressure / hemodynamic dynamics measuring device (Finometer model 2, Finapres Medical Systems B. V) on the second joint of the middle finger of the left hand.

血行力学パラメータは平均血圧(MBP),心拍数(HR),心拍出量(CO),全末梢抵抗(TPR)を測定した。顔面熱画像を測定するために顔面全体が計測できる画角で赤外線サーモグラフィ(TVS-200EX,AVIONICS社)を前方1.2mの位置に設置し,撮影間隔は1fpsとした。顔面皮膚温度を測定する際に背もたれ椅子に座らせて,コンピュータの画面をプロジェクターで壁に向けて1.55mの距離で映し出した。 Hemodynamic parameters measured mean blood pressure (MBP), heart rate (HR), cardiac output (CO), and total peripheral resistance (TPR). Infrared thermography (TVS-200EX, AVIONICS) was installed at an angle of view that can measure the entire face to measure facial thermal images at a position 1.2 m in front, and the shooting interval was set to 1 fps. When measuring the facial skin temperature, I sat on a backrest chair and projected the computer screen at a distance of 1.55 m toward the wall with a projector.

実験は,Task前の安静閉眼60s(Rest1),能動的課題60s(Task1)、対処なし課題60s(Task2)、受動的課題60s(Task3)、Task後の安静閉眼60s(Rest2)の時間区分で構成される。能動的課題では暗算課題,受動的課題では鏡映描写課題,ストレス対処なし課題では安静閉眼を行わせた。暗算課題では4秒ごとの2ケタの足し算でありコンピュータのスクリーン上で行った。暗算の正誤はその都度告知しなかった。また,鏡映描写課題ではコンピュータ上で再現し,スクリーン上に表示された星型図形(図7参照)を右手でマウスを使い線と線の間を通るように教示した。マウスの動きと画面上のカーソルの動きは,上下左右反転させた。
星形図形にはカーソルとカーソルの軌跡を表示させ、はみ出した場合にカーソルを最初の位置に戻し軌跡をすべて消した。周回開始位置は星型の最上部とした。対処なしの課題としては安静開眼を用いた。血行力学パラメータにおけるRest1の平均値をベースラインとして減算し規格化を行った。
The experiment was conducted in the time divisions of resting eyes closed 60s (Rest1) before Task, active task 60s (Task1), no action task 60s (Task2), passive task 60s (Task3), and resting eyes closed 60s (Rest2) after Task. It is composed. Mental arithmetic tasks were performed for active tasks, mirror depiction tasks for passive tasks, and resting eyes closed for tasks without stress coping. In the mental arithmetic task, double-digit addition was performed every 4 seconds on the computer screen. The correctness of mental arithmetic was not announced each time. In the mirror drawing task, he was taught to reproduce the star-shaped figure (see Fig. 7) displayed on the screen on a computer and use a mouse with his right hand to pass between the lines. The movement of the mouse and the movement of the cursor on the screen were reversed vertically and horizontally.
The cursor and the trajectory of the cursor were displayed on the star-shaped figure, and when it protruded, the cursor was returned to the initial position and all the tracks were erased. The orbit start position was the top of the star shape. Resting eyes were used as a task without coping. Normalization was performed by subtracting the average value of Rest1 in the hemodynamic parameters as the baseline.

2.解析方法
2−1 血行力学パラメータの判別
図8に被験者Aの規格化したMBPの時系列変化を示す。各血行力学パラメータに関して、ベースライン+2σ(σ:Rest1における各血行力学パラメータの標準偏差)以上の値となった範囲を“+”,ベースライン−2σ以下の値となった範囲を“−”と定義した。各血行力学パラメータを表1のパターン反応に基づき、“パターンI”(能動的対処),“パターンII”(受動的対処)、どちらにも当てはまらない場合を“対処なし”に判別した。また,Task1〜3間で撮影した熱画像を血行力学パラメータの判別に基づきラベル付けを行った。
2. Analysis method 2-1 Discrimination of hemodynamic parameters Figure 8 shows the time-series changes in the normalized MBP of subject A. For each hemodynamic parameter, the range with a value greater than or equal to baseline + 2σ (σ: standard deviation of each hemodynamic parameter at Rest1) is defined as “+”, and the range with a value below baseline −2σ is defined as “-”. Defined. Based on the pattern reaction in Table 1, each hemodynamic parameter was discriminated as "Pattern I" (active coping) or "Pattern II" (passive coping), and when neither was applicable, it was judged as "no coping". In addition, the thermal images taken between Tasks 1 to 3 were labeled based on the discrimination of hemodynamic parameters.

2−2 入力データの作成
ラベル付けした熱画像を機械学習に用いるために,顔面の部分を151×171pixelでトリミングを行い、グレイスケール化を行うことで顔面熱画像を作成した。また、各ストレス対処にラベル付けされた顔面熱画像(入力データ)の枚数を合わせるために、ランダムクロップ,ホワイトガウスノイズの付加,コントラスト調整を行いデータ拡張した。
2-2 Creation of input data In order to use the labeled thermal image for machine learning, the facial thermal image was created by trimming the facial part with 151 × 171 pixels and grayscale it. In addition, in order to match the number of facial thermal images (input data) labeled for each stress coping, random cropping, white Gaussian noise addition, and contrast adjustment were performed to expand the data.

2−3 CNNを用いた機械学習
本実験では、畳込みニューラルネットワーク(CNN)を用いて、顔面皮膚温度分布に基づくストレス対処様式の個人判別モデルの構築と、ストレス対処様式に関連する特徴量の抽出を行った。
2-3 Machine learning using CNN In this experiment, a convolutional neural network (CNN) was used to construct an individual discrimination model of stress coping style based on facial skin temperature distribution, and features related to stress coping style. Extraction was performed.

CNNの構成は特徴量の抽出を行う畳込み層3層、プーリング層3層及び判別を行う全結合層1層からなる。CNNの構造を図9に,畳み込み層及びプーリング層のフィルタのパラメータを図10、11に示す。ストレス対処様式に関連する特徴解析は,CNNの畳込み層の重みである特徴マップを基に行った。 The CNN is composed of three convolutional layers for extracting features, three pooling layers, and one fully connected layer for discrimination. The structure of the CNN is shown in FIG. 9, and the filter parameters of the convolution layer and the pooling layer are shown in FIGS. 10 and 11. The feature analysis related to the stress coping mode was performed based on the feature map, which is the weight of the convolutional layer of CNN.

3.結果及び考察
CNNに各ストレス対処様式の顔面熱画像を入力した際の2層目の畳み込み層の特徴マップを被験者ごとに図12に示す。
被験者内での対処様式ごとの特徴マップを観測した結果,特に,被験者Bでは能動的対処及びストレス対処なしの時には左頬に,受動的対処時には右頬に特徴が認められるなど,各ストレス対処様式間で表出される特徴部位が異なることが示された。被験者間で特徴マップを見た結果,大半の被験者では鼻部に特徴が表出していたが,各被験者で特徴表出部位に個人差が認められた。
各被験者間で特徴表出部位に個人差が認められた要因として,血管や脂肪の構造に差異が考えられる。しかし,解剖学的に意味づけられる特徴部位を特定することにより,ストレス対処判別のための一般モデルの構築の道筋をつけることができると考えられる。
3. 3. Results and Discussion FIG. 12 shows a feature map of the second convolutional layer when facial thermal images of each stress coping mode were input to CNN for each subject.
As a result of observing the feature map for each coping style in the subject, in particular, in subject B, features were found on the left cheek when there was no active coping and stress coping, and on the right cheek when passive coping, and each stress coping style. It was shown that the characteristic sites expressed between them differed. As a result of looking at the feature map among the subjects, most of the subjects showed features in the nose, but each subject showed individual differences in the feature expression site.
Differences in the structure of blood vessels and fat are considered to be the reason why individual differences were observed in the site of characteristic expression among the subjects. However, by identifying anatomically meaningful feature sites, it is possible to pave the way for the construction of a general model for stress coping discrimination.

4.総括
本実験では,CNNを用いることで,顔面皮膚温度分布よるストレス対処様式の判別及び,ストレス対処様式に関連する特徴の抽出を試みた。結果,ストレス対処様式で顔面皮膚温度分布に表出される特徴分布が変わり,さらに個人間でストレス対処様式に関連する特徴分布に個人差が認められた。
4. Summary In this experiment, we attempted to discriminate stress coping styles from facial skin temperature distribution and extract features related to stress coping styles by using CNN. As a result, the characteristic distribution expressed in the facial skin temperature distribution changed depending on the stress coping style, and individual differences were observed in the characteristic distribution related to the stress coping style.

参考文献
[1] 澤田幸展:新 生理心理学(宮田洋監修),第10章,北大路書房,pp.172-195,(1998)
[2] 長野 祐一郎:「競争型鏡映描写課題における心臓血管反応」, 生理心理学と精神生理学, Vol.22,No3,pp.237-246,(2004)
[3] 坂東 靜,浅野 裕俊,野澤 昭雄:「読書の表示媒体に関する生理的影響の分析」,電気学会論文誌C(電子・情報・システム部門誌),Vol.135,No.5,pp.520-525,(2015)
[4] 綿貫 卓也, 野澤 昭雄:「ストレス対処様式に基づくTV視聴様態の分析」, 電気学会論文誌C(電子・情報・システム部門誌),Vol.134,No.2,pp.205-211,(2014)
[5] 日沖 求,野澤 昭雄,水野 統太,井出 英人:「時間的圧迫状況下におけるメンタルワークロードの生理心理評価」,電気学会論文誌C(電子・情報・システム部門誌), Vol.127 ,No.7,pp.1000-1006,(2007)
[6] Hiroki Ito,ShizukaBando,Kosuke Oiwa,AkioNozawa:”Evaluation of Variations in Autonomic NervousSystem’s Activity During the Day Based on Facial ThermalImages UsingIndependent Component Analysis”,IEEJTransactions onElectronics, Information and Systems,Vol.138,No.7,pp.1-10,(2018)
[7] 松村
健太,澤田 幸展:「2種類の暗算課題遂行時における心血管反応」,心理学研究,Vo79,No.6,pp. 473-480,(2008)
References
[1] Yuki Sawada Exhibition: New Physiological Psychology (supervised by Hiroshi Miyata), Chapter 10, Kitaooji Shobo, pp. 172-195, (1998)
[2] Yuichiro Nagano: "Cardiovascular Reactions in Competitive Reflection Tasks", Physiological Psychology and Psychophysiology, Vol.22, No3, pp.237-246, (2004)
[3] Yasushi Bando, Hirotoshi Asano, Akio Nozawa: "Analysis of Physiological Effects of Reading Display Media", IEEJ Transactions on Electronics, Information and Systems, Vol.135, No.5, pp. 520-525, (2015)
[4] Takuya Watanuki, Akio Nozawa: "Analysis of TV viewing patterns based on stress coping styles", IEEJ Transactions on Electronics, Information and Systems, Vol.134, No.2, pp.205-211 , (2014)
[5] Satoshi Hioki, Akio Nozawa, Tota Mizuno, Hideto Ide: "Physiological Psychological Evaluation of Mental Workloads under Temporal Pressure", IEEJ Transactions on Electronics, Information and Systems, Vol. 127, No.7, pp.1000-1006, (2007)
[6] Hiroki Ito, ShizukaBando, Kosuke Oiwa, AkioNozawa: "Evaluation of Variations in Autonomic NervousSystem's Activity During the Day Based on Facial ThermalImages Using Independent Component Analysis", IEEJTransactions onElectronics, Information and Systems, Vol.138, No.7, pp. 1-10, (2018)
[7] Kenta Matsumura, Yukihiro Sawada: "Cardiovascular reactions when performing two types of mental arithmetic tasks", Psychology Research, Vo79, No.6, pp. 473-480, (2008)

また、以下に、本発明に係るストレス対処様式判定システムの基礎研究となる、本願発明者による2つの実験研究例を、本件発明の一適用例(実施例)として示す。
これらの実験例は、本発明におけるように「被験者の生体情報を非接触状態で取得する」ものではなく連続血圧計を用い被検者にカフを装着して行ったものであるが、本件発明と同様に、血行力学パラメータに基づきテレビ映像コンテンツを視聴した際の視聴者の生理心理状態の分析、分類、評価を行ったものである。従って、本願発明は、例えば、このような事態における被検者のストレス様式判定に適用することができるものである。
In addition, two experimental research examples by the inventor of the present application, which are basic research of the stress coping mode determination system according to the present invention, are shown below as one application example (example) of the present invention.
These experimental examples were performed by attaching a cuff to the subject using a continuous sphygmomanometer, instead of "acquiring the biological information of the subject in a non-contact state" as in the present invention. Similarly, based on the blood circulation dynamics parameters, the physiological and psychological states of the viewer when viewing the TV video content were analyzed, classified, and evaluated. Therefore, the invention of the present application can be applied to, for example, the determination of the stress mode of the subject in such a situation.

<実験例2>
実験の主旨
現代,身の回りは多くの情報機器で溢れている。その中でもテレビはその発明以来,家庭のリビングルーム等に設置され,ニュースメディアや娯楽メディアの中心的存在として認知されてきた。しかしながら近年のIT技術の進展による小型化・高性能化された情報通信機器の普及,および,情報ネットワーク環境の発達に伴い,情報メディアの在り方が大きく変容し,今日ではテレビの視聴様態も大きく変容してきている。
<Experimental example 2>
Purpose of the experiment Today, people around us are full of information devices. Among them, since its invention, television has been installed in the living room of homes and has been recognized as the center of news media and entertainment media. However, with the spread of miniaturized and high-performance information and communication equipment due to the progress of IT technology in recent years and the development of the information network environment, the way of information media has changed drastically, and today the way of watching TV has also changed drastically. I'm doing it.

西垣は,テレビのスイッチを常にオンにしながら,同時に雑用をこなしたり携帯電話を操作したりなど,およそ『集中した視聴者』からはほど遠い,と述べている(1)。しかし,その変容している視聴様態を把握することが出来れば,TV コンテンツデザインによって気分・気持ち・行動を望ましい方向へ整えるなど,新たな付加価値をテレビに備えることが可能になる。
藤原・齋藤は世論調査,および,大野はアンケート調査を行い,テレビを視聴する理由として「ひまつぶし」,「おもしろい番組を楽しむため」,「教養を高め知識を得るため」,「習慣でなんとなく」,「わずらわしい現実から逃れるため」,「気分転換のため」,「BGM」,「一家団らんのため」などの理由を挙げている (2)(3)。
Nishigaki states that he is far from a "concentrated viewer", such as always turning on the TV switch while doing chores and operating a mobile phone at the same time (1). However, if we can grasp the changing viewing mode, it will be possible to add new added value to TV, such as adjusting mood, feelings, and behavior in the desired direction by TV content design.
Fujiwara and Saito conducted an opinion poll, and Ohno conducted a questionnaire survey. The reasons for watching TV were "killing time", "enjoying interesting programs", "enhancing education and gaining knowledge", "somehow by habit", Reasons such as "to escape from the troublesome reality", "to change the mood", "BGM", and "to help the family" are given (2) (3).

また,高橋らはテレビを視聴する時間について,「朝食の時」,「通勤時」,「家事をしているとき」,「平日自宅でくつろぐ時」などに分類している(4)。さらに,友宗らはテレビの視聴様態を,“頭も体もテレビに集中”という状態の「専念視聴」,“この番組はみたいが,他のことをしながら見る”という状態の「ながら&専念スイッチング視聴」,“とくに見たいものがあるわけではないが,体はテレビに集中”という状態の「時間快適化視聴」などに分類している(5)。 In addition, Takahashi et al. Classify the time to watch TV into "breakfast", "commuting", "doing housework", "relaxing at home on weekdays", etc. (4). In addition, Tomomune et al. Changed the TV viewing mode to "dedicated viewing" in which "the head and body are concentrated on the TV" and "while watching this program while doing other things". It is categorized into "dedicated switching viewing" and "time-comfortable viewing" in which "the body concentrates on the TV, although there is nothing I want to see" (5).

このように,視聴様態は様々であり,時間・場所・気分などの要因によって変容することが明らかとなっている。TV映像に対する嗜好も視聴様態が変容する一因であろう。しかし,嗜好によって視聴様態を分類している研究はない。さらに,これらの視聴様態を判別する研究は世論調査や事後の内省評価などの心理的な応答を用いたものがほとんどで,生理的な応答を用いて視聴様態を分類する研究はない。 In this way, it has been clarified that the viewing mode is various and changes depending on factors such as time, place, and mood. The taste for TV images may also be one of the factors that change the viewing style. However, there are no studies that classify viewing modes according to taste. Furthermore, most of the studies that discriminate these viewing modes use psychological responses such as opinion polls and introspection evaluations after the fact, and there are no studies that classify viewing patterns using physiological responses.

テレビの映像と音声は生体に対する視聴覚刺激であるため,それ自体がストレッサーとみなされる。ストレッサーは生体にストレス対処を促し,ストレス応答として生理・心理的変化をもたらす。テレビの種々のコンテンツをストレッサーとみなせば,コンテンツに対する対処,すなわち視聴様態によってその生理的ストレス応答は異なる事が予想される。野村らは,心臓血管系指標によって,e ラーニングコンテンツへの対処様態を分類している(6)。 Since television video and audio are audiovisual stimuli for living organisms, they are considered stressors in their own right. The stressor encourages the living body to cope with stress and brings about physiological and psychological changes as a stress response. If various contents of television are regarded as stressors, it is expected that the physiological stress response will differ depending on the coping with the contents, that is, the viewing mode. Nomura et al. Classify how to deal with e-learning content by cardiovascular index (6).

そこで,本研究は心臓血管系指標によって,テレビコンテンツに対する視聴様態を分析する事を目的として,連続血圧計による心臓血管系計測,および,赤外線サーモグラフィ装置による非接触状態顔面皮膚温計測,ディジタル生体アンプによる心電図・脳波計測を行い,中枢神経系活性および自律神経系活性の評価を行った。特に,血行力学的パラメータを用いたストレス対処様式,およびTV 映像に対する嗜好によって,TV 映像視聴時における視聴様態の分析を行った。 Therefore, in this study, for the purpose of analyzing the viewing mode for TV contents by the cardiovascular index, cardiovascular measurement by continuous sphygmomanometer, non-contact facial skin temperature measurement by infrared thermography device, digital biological amplifier We evaluated the activity of the central nervous system and the activity of the autonomic nervous system by measuring the electrocardiogram and brain waves. In particular, we analyzed the viewing mode when watching TV images based on the stress coping style using hemodynamic parameters and the preference for TV images.

2.要因抽出実験
視聴様態は映像コンテンツ,および,それに対する個人的嗜好に影響されると考え,予備実験により要因の分類を行った。
2. Factor extraction experiment We considered that the viewing mode was influenced by the video content and personal tastes for it, and classified the factors by a preliminary experiment.

〈2・1〉実験条件 被験者は大学に在籍する健常な学生20名(年齢:19-22,平均年齢:21。1,男性:11名,女性9名)である。被験者には予め実験内容・目的・調査対象を口頭および書面にて十分説明し,署名により実験協力に対する同意を確認した。計測は室温26。0±1。6℃の対流のないシールドルームで行い,室外からの温度入力はないものとした。 <2.1> Experimental conditions The subjects were 20 healthy students (age: 19-22, average age: 21.1, male: 11, female: 9) enrolled in the university. The subjects were fully informed in advance of the content, purpose, and subject of the experiment, both verbally and in writing, and their consent to the cooperation of the experiment was confirmed by signature. The measurement was performed in a shielded room with no convection at room temperature of 26.0 ± 1.6 ° C, and it was assumed that there was no temperature input from the outside.

被験者は座位にて,前方2mの位置に設置された液晶テレビ(55インチ,HX850,BRAVIA,SONY製)を用いて,5分間の10種の映像コンテンツ(ニュース・スポーツ・ドキュメンタリー・音楽・ホラー・お笑い・ドラマ・アニメ・料理・ショッピング)を視聴する。映像コンテンツはDVDプレイヤー(SCPH-3900,SONY製)で再生した。視聴する映像コンテンツは被験者が視聴するまで公表しない。また,順序効果を除外するため,視聴する映像コンテンツの順番をランダム順とした。 The subject was sitting and using an LCD TV (55 inches, HX850, BRAVIA, made by SONY) installed 2 m in front of him, 10 kinds of video contents (news, sports, documentary, music, horror, etc.) for 5 minutes. Watch comedy, drama, anime, cooking, shopping). The video content was played on a DVD player (SCPH-3900, made by SONY). The video content to be viewed will not be published until the subject views it. In addition, in order to exclude the order effect, the order of the video contents to be viewed is random.

〈2・2〉実験手順 本実験は,図13に示すように,5 分間の映像視聴,およびその前後の1分間の安静・閉眼状態R1,R2により構成される。また,Visual Analogue Scale(以下,VASと略記する),没入感調査によりそれぞれの映像コンテンツへの嗜好および没入感評価を行った。 <2.2> Experimental procedure As shown in Fig. 13, this experiment consists of 5 minutes of video viewing and 1 minute of rest and eye closure R1 and R2 before and after that. In addition, the preference and immersive feeling of each video content were evaluated by the Visual Analogue Scale (hereinafter abbreviated as VAS) and the immersive feeling survey.

〈2・3〉評価法 実験終了時に「嗜好」の主観的感覚量をVASを用いて計測した。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については「とても嫌い」-「とても好き」とした。加えて,映像に対する没入感を5ポイントスケール(1:全く没入できなかった−5:かなり没入した)で計測した。 <2 ・ 3> Evaluation method At the end of the experiment, the subjective sensory amount of "preference" was measured using VAS. In VAS, it is possible to measure the psychophysical quantity of a subject by arranging paired adjectives at both ends of the line segment and the subject checking at an arbitrary position on the line segment. I said "I hate it very much"-"I like it very much" for the words placed at both ends of the scale. In addition, the immersive feeling in the video was measured on a 5-point scale (1: I couldn't immerse at all-5: I was quite immersive).

〈2・4〉要因抽出実験の結果および考察
図14の左に、10種のコンテンツの嗜好および没入感における全被験者の平均を示す。図中のエラーバーは嗜好及び没入感の標準誤差を表す。図14の右に,10 種のコンテンツの内,特に個人差の大きかったニュースおよびホラーにおける被験者20 人分の嗜好および没入感を示す。図14の左より各コンテンツの嗜好および没入感を眺めると,平均的な嗜好および没入感は正比例の関係である。図14においてN=20である。
<2.4> Results and discussion of factor extraction experiments The left side of Fig. 14 shows the average of all subjects in terms of preference and immersiveness of 10 types of content. Error bars in the figure represent standard errors in taste and immersiveness. On the right side of FIG. 14, the tastes and immersive feelings of 20 subjects in news and horror, which had a large individual difference among the 10 types of contents, are shown. Looking at the taste and immersive feeling of each content from the left of FIG. 14, the average taste and immersive feeling are in a direct proportional relationship. In FIG. 14, N = 20.

ホラーに関しては嗜好は低いが没入感が高いという特異な結果を示した。これは,嫌いだが好奇心に駆られてかえって視聴したくなる,いわゆる「恐いもの見たさ」によるものと考えられる。図14の右より被験者毎に嗜好および没入感は異なるため,個人差が大きいことがわかる。よって,生理計測実験においては上述の要因分類実験を元に,被験者毎に高没入・正嗜好(嗜好の高い)の映像コンテンツと低没入・負嗜好(嗜好の低い)の映像コンテンツ,および負嗜好だが。高没入あるいは低没入に分かれるという特異な結果を示したホラー映像に分け,提示することとした。 Regarding horror, it showed a peculiar result that the taste was low but the immersive feeling was high. This is thought to be due to the so-called "seen scary things" that I hate but are curious about and want to watch. From the right side of FIG. 14, since the taste and immersive feeling are different for each subject, it can be seen that individual differences are large. Therefore, in the physiological measurement experiment, based on the above-mentioned factor classification experiment, each subject has high immersive / positive preference (high preference) video content, low immersive / negative preference (low preference) video content, and negative preference. However. It was decided to divide and present the horror video showing the peculiar result of being divided into high immersive or low immersive.

3.生理計測実験
要因抽出実験により抽出された要因を元に,再度,同じ被験者で別の映像を用いて生理計測を実施した。
〈3・1〉実験条件 被験者は日本の大学に在籍する健常な学生14名(年齢:19-22,平均年齢:21。4,男性:7名,女性7名)である。2。1と同様のシールドルーム内で実験を行い,映像コンテンツの切り替えおよび生理計測状況の確認のために,同じ部屋に実験実施者一名が同席した。体表面温度の室温への馴化を図る為,実験は被験者入室後から20分以上経過後に実施した。正嗜好,負嗜好の映像コンテンツは要因抽出実験の結果に基づいて被験者毎に設定した。没入感が4以上かつ嗜好が0。6以上の中で最も嗜好の高かった映像コンテンツを正嗜好(以降,「Positive」と略記),没入感が2以下かつ嗜好が0。4以下の中で最も嗜好の低かった映像コンテンツを負嗜好(以降,「Negative」と略記)とした。よって,視聴する映像コンテンツは「Positive」,「Negative」,「ホラー」の3種である。
3. Physiological measurement experiment Based on the factors extracted by the factor extraction experiment, the same subject was again subjected to physiological measurement using different images.
<3.1> Experimental conditions The subjects were 14 healthy students (age: 19-22, average age: 21.4, male: 7, female: 7) enrolled in a Japanese university. The experiment was conducted in the same shield room as in 2.1, and one experimenter was present in the same room to switch the video content and check the physiological measurement status. In order to adjust the body surface temperature to room temperature, the experiment was conducted 20 minutes or more after the subject entered the room. The video contents of positive preference and negative preference were set for each subject based on the results of the factor extraction experiment. Video content with an immersive feeling of 4 or more and a preference of 0.4 or more is the most preferred video content (hereinafter abbreviated as "Positive"), and an immersive feeling of 2 or less and a preference of 0.4 or less. The video content with the lowest preference was defined as negative preference (hereinafter abbreviated as "Negative"). Therefore, there are three types of video content to watch: "Positive,""Negative," and "horror."

〈3・2〉実験手順 要因抽出実験と同様に,図13より構成される。また,VAS,Multiple mood scale(以下 MMS と略記),没入感調査により,それぞれの映像コンテンツに対する感性変動,嗜好および没入感評価を行った。 <3.2> Experimental procedure Similar to the factor extraction experiment, it is composed of FIG. In addition, sensitivity fluctuations, preferences, and immersive feelings were evaluated for each video content by VAS, Multiple mood scale (hereinafter abbreviated as MMS), and immersive feeling survey.

〈3・3〉計測システム 計測システムおよびEEG計測電極の配置を図15に示す。被験者は座位にて,連続血圧計,EEG導出用電極,ECG導出用電極を装着した。連続血圧計(Finometer model2,Finapres Medical Systems B。V。製)は左腕の中指第二関節にカフを装着し,サンプリング周波数200HzでPCに記録した。被験者の前方0。7mの位置に,顔面が測定できる角度で赤外線サーモグラフィー装置(TVS-200X)を設置した。皮膚放射率はε=0。98,温度分解能0。1°C以下とし,サンプリング周波数1HzでPCに記録した。EEGは左耳(A1)をリファレンスとした基準電極法にて計測した。EEG導出用電極位置は,国際10-20法に基づく1点(Pz)とし,電極接触抵抗は10kΩ以下とした。 <3.3> Measurement system The arrangement of the measurement system and EEG measurement electrodes is shown in FIG. The subject was in a sitting position and was equipped with a continuous sphygmomanometer, an EEG derivation electrode, and an ECG derivation electrode. A continuous sphygmomanometer (Finometer model2, manufactured by Finapres Medical Systems B.V.) was equipped with a cuff on the second joint of the middle finger of the left arm and recorded on a PC at a sampling frequency of 200 Hz. An infrared thermography device (TVS-200X) was installed at a position 0.7 m in front of the subject at an angle at which the face could be measured. The skin emissivity was ε = 0.98, the temperature resolution was 0.1 ° C or less, and the data was recorded on a PC at a sampling frequency of 1 Hz. EEG was measured by the reference electrode method with the left ear (A1) as a reference. The EEG derivation electrode position was set to 1 point (Pz) based on the international 10-20 law, and the electrode contact resistance was set to 10 kΩ or less.

一般にα波はO1,O2にて記録するが,本研究では大脳活動の定常的指標としてのα波パワーに着目し,専らその減衰比の算出を目的としている為,左右差や局在性よりもむしろ電極の装着の簡便性,および,被験者への計測ストレスの低減を重視して,近傍のPzを計測した。ECG測定用の電極は,筋電位の混入を最小限にする為,NASA誘導法に従い,胸骨上緑部(+)および心尖部(-)に装着した。接地電極はEEGとECG共通で頭頂部(Cz)とした。EEG信号およびECG信号は,ディジタル生体アンプ(5102, NF ELECTRONICINSTRUMENTS製)にて増幅され,プロセッサボックス(5101,NF ELECTRONIC INSTRUMENTS製)を介してPCにサンプリング周波数200Hzで記録した。 Generally, α waves are recorded as O1 and O2, but in this study, we focus on α wave power as a constant index of cerebral activity, and since the purpose is exclusively to calculate its attenuation ratio, it is based on laterality and localization. Rather, the Pz in the vicinity was measured with an emphasis on the ease of mounting the electrodes and the reduction of measurement stress on the subject. Electrodes for ECG measurement were attached to the supternal green part (+) and apex (-) according to the NASA induction method in order to minimize the mixing of myoelectric potentials. The ground electrode is the crown (Cz) common to EEG and ECG. The EEG signal and ECG signal were amplified by a digital biological amplifier (5102, manufactured by NF ELECTRONIC INSTRUMENTS) and recorded on a PC via a processor box (5101, manufactured by NF ELECTRONIC INSTRUMENTS) at a sampling frequency of 200 Hz.

〈3・4〉評価法
本研究では生理指標,心理指標の相関性を解析した。生理指標は,平均血圧(Mean pressure,以下MPと略記),心拍数(Heart rate,以下HRと略記),一回拍出量(Stroke Volume,以下 SV とする),心拍出量(Cardiac output,以下COと略記),全末梢抵抗(Total peripheral resistance,以下TPRと略記),鼻部皮膚温度(Nasal skin temperature,以下NSTと略記),心電図(Electrocardiograms,以下ECGと略記),および,脳波(Electroencephalograms,以下EEGと略記)とした。EEGの8Hzから13Hzの周波数成分はα波と呼ばれ,安静,閉眼,覚醒時に目立って発現し,何れかの条件が損なわれると減衰する事が知られている(8)。本研究では200HzでサンプリングされたEEG時系列に対して,10秒毎に1024サンプル点に対してフーリエ変換(FFT)を行い,10秒毎のα波パワースペクトルを求めた。さらに,図13のR1区間およびR2区間各々における平均α波パワーを算出し,R1区間の平均α波パワーを基準としたR2区間の平均α波パワー比をテレビ視聴前後の覚醒度変動の指標とした。
<3.4> Evaluation method In this study, we analyzed the correlation between physiological indicators and psychological indicators. Physiological indicators are mean blood pressure (hereinafter abbreviated as MP), heart rate (hereinafter abbreviated as HR), stroke volume (hereinafter abbreviated as SV), and cardiac output (hereinafter abbreviated as SV). , Total peripheral resistance (hereinafter abbreviated as TPR), Nasal skin temperature (hereinafter abbreviated as NST), ECG (Electrocardiograms, hereinafter abbreviated as ECG), and brain waves (hereinafter abbreviated as ECG) Electroencephalograms (hereinafter abbreviated as EEG). The frequency component of EEG from 8 Hz to 13 Hz is called an α wave, and it is known that it is conspicuously expressed at rest, eyes closed, and awake, and is attenuated when any of the conditions is impaired (8). In this study, Fourier transform (FFT) was performed on 1024 sample points every 10 seconds for the EEG time series sampled at 200 Hz, and the α-wave power spectrum was obtained every 10 seconds. Furthermore, the average α-wave power in each of the R1 and R2 sections in FIG. 13 is calculated, and the average α-wave power ratio in the R2 section based on the average α-wave power in the R1 section is used as an index of arousal fluctuation before and after watching TV. did.

NSTは末梢部血流を支配する交感神経系活動の指標として知られる。交感神経系の亢進・抑制とNSTの時間的変動量はよく相関するため,本研究では10秒毎のNSTの変動量を映像視聴に関する交感神経系活動動能の定量的指標として利用した。正値は交感神経系活動の抑制,負値は交感神経系活動の亢進を意味する。計測された鼻部熱画像時系列の各加増において,鼻部の10×10pixelにおける空間平均温度を求め,NST時系列とした。HFは心拍変動スペクトルの0。15Hz〜0。4Hzの高周波成分であり,呼吸性不整脈成分として知られる(7)。 NST is known as an index of sympathetic nervous system activity that controls peripheral blood flow. Since the enhancement / suppression of the sympathetic nervous system and the temporal fluctuation of NST correlate well, in this study, the fluctuation of NST every 10 seconds was used as a quantitative index of the sympathetic nervous system activity related to video viewing. A positive value means suppression of sympathetic nervous system activity, and a negative value means increased sympathetic nervous system activity. In each addition of the measured nasal thermal image time series, the spatial average temperature at 10 × 10 pixels of the nasal part was calculated and used as the NST time series. HF is a high-frequency component of the heart rate variability spectrum of 0.15 Hz to 0.4 Hz and is known as a respiratory arrhythmia component (7).

HFは副交感神経系活動の指標とされ,副交感神経の亢進・抑制に応じて増加・減少する。ECGサンプルから閾値処理によりR波ピーク間隔の時系列を求め,3次スプライン補間後,20Hzでリサンプリングを行う。リサンプリング済みデータに対して1s毎にFFT処理を行い,心拍変動パワースペクトルの時系列を得る。FFT処理のデータ数は512点とした。時系列の心拍変動パワースペクトルにおいて,0。15Hz〜0。4Hz帯域の積分値を求め,HF時系列とした。血行力学的パラメーター(MP,HR,SV,CO,TPR)は外界のストレスに応じて特徴的な反応パターン(パターンI,パターンII)を示すことが知られており,ストレスに対する心臓血管系の生理反応を理解する上で重要な概念となっている。 HF is used as an index of parasympathetic nervous system activity, and increases or decreases as parasympathetic nerves increase or decrease. The time series of R wave peak intervals is obtained from the ECG sample by threshold processing, and after third-order spline interpolation, resampling is performed at 20 Hz. FFT processing is performed on the resampled data every 1 s to obtain the time series of the heart rate variability power spectrum. The number of data for FFT processing was 512 points. In the time-series heart rate variability power spectrum, the integral value in the 0.15 Hz to 0.4 Hz band was obtained and used as the HF time series. Hemodynamic parameters (MP, HR, SV, CO, TPR) are known to exhibit characteristic response patterns (Pattern I, Pattern II) in response to external stress, and cardiovascular physiology to stress. It is an important concept in understanding the reaction.

具体的にはパターンIは心筋の収縮活動の亢進や血管拡張による骨格筋への血液量の増大に特徴づけられ,これはいわば,エネルギー消費型の反応(能動的対処)といえる。一方パターンIIは末梢血管の収縮に特徴づけられ,また,心拍数もおおむね減少し,これはいわば,エネルギー節約型の反応(受動的対処)といえる(7)。 Specifically, pattern I is characterized by increased contractile activity of the myocardium and increased blood volume to skeletal muscle due to vasodilation, which can be said to be an energy-consuming reaction (active coping). On the other hand, pattern II is characterized by the contraction of peripheral blood vessels, and the heart rate is also generally reduced, which can be said to be an energy-saving reaction (passive coping) (7).

また,心理指標は多面的感情状態尺度MMS,および,VASとした。MMSは,対象者がおかれた条件により変化する一時的な気分や感情の状態について,抑鬱・不安(以下,D-A略記),敵意(以下,Hと略記),倦怠(以下Fと略記),活動的快(以下,Aと略記),非活動的快(以下,Iと略記),親和(以下,AFと略記),集中(以下,Dと略記),驚愕(以下,Sと略記)からなる8種類の感情状態尺度により指標化する(9)。実験開始前,および実験終了時には,「覚醒感」「快・不快感」「疲労感」「嗜好」4種類の主観的感覚量をVASを用いて計測した。 The psychological indicators were the multifaceted emotional state scale MMS and VAS. MMS describes depression / anxiety (hereinafter abbreviated as DA), hostility (hereinafter abbreviated as H), malaise (hereinafter abbreviated as F), and temporary mood and emotional states that change depending on the conditions placed on the subject. From active pleasure (hereinafter abbreviated as A), inactive pleasure (hereinafter abbreviated as I), affinity (hereinafter abbreviated as AF), concentration (hereinafter abbreviated as D), startle (hereinafter abbreviated as S) It is indexed by eight types of emotional state scales (9). Before the start of the experiment and at the end of the experiment, four types of subjective sensory quantities, "awakening," "pleasure / discomfort," "fatigue," and "preference," were measured using VAS.

「快・不快感」,および,「覚醒感」はラッセルの情動二元論における基本成分として,本研究における心理評価の項目に選択した(10)。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については,覚醒感は「とても眠い」-「はっきり目覚めている」,快・不快感は「非常に不快」−「非常に快適」,元気さは「とても疲れている」-「とても元気」,嗜好は「とても嫌い」−「とても好き」とした。各VASは独立した紙面にて用意し,順次,再帰参照なく自筆により記録するよう教示した。さらに,実験終了後に映像に対する没入感を5ポイントスケール(1:全く没入できなかった−5:かなり没入した)で計測した。なお,統計的分析方法として,各心理指標の映像視聴前後の差の検定には対応のあるt検定を用い,各生理指標におけるTEST区間全体の変化量についてはWilcoxonの符号順位検定を用いた。 "Pleasure / discomfort" and "awakening" were selected as the basic components in Russell's emotional dualism as items of psychological evaluation in this study (10). In VAS, it is possible to measure the psychophysical quantity of a subject by arranging paired adjectives at both ends of the line segment and the subject checking at an arbitrary position on the line segment. Regarding the words placed at both ends of the scale, the awakening feeling is "very sleepy"-"clearly awake", the pleasure / discomfort is "very unpleasant"-"very comfortable", and the energy is "very tired". "-" Very energetic ", tastes" very dislike "-" very like ". We prepared each VAS on a separate page and taught them to record by hand without recursive reference. Furthermore, after the experiment was completed, the immersive feeling in the image was measured on a 5-point scale (1: I could not immerse at all-5: I was quite immersive). As a statistical analysis method, a paired t-test was used to test the difference between each psychological index before and after video viewing, and Wilcoxon signed rank test was used for the amount of change in the entire TEST section for each physiological index.

〈3・5〉結果および考察心理指標について統計的分析を行い,TV映像視聴時およびTV映像視聴前後における心理応答を議論する。なお,ホラー映像刺激に対して,全被験者の嗜好は0。4以下であったので,没入感にのみ着目する。ホラー映像視聴後の5段階の没入感評価において,4あるいは5ならHorror(Concentration)(以下「Horror(C)」と略記),1あるいは2ならHorror(Notconcentration)(以下「Horror(N)」と略記) として分類した。以降,結果は,「Positive」,「Negative」,「Horror(C)」,「Horror(N)」の分類によって表記する。「Horror(C)」の人数は10人,「Horror(N)」の人数は4人である。MMSの各気分尺度における全被験者の平均を図16〜19に示す。
図16ではN=14、図17ではN=14、図18ではN=10、図19ではN=4である。没入感の「快・不快感」,「覚醒感」,「活力」,「嗜好」および「没入感」における全被験者の平均を図20〜23に示す。図20ではN=14、図21ではN=14、図22ではN=10、図23ではN=4である。
<3.5> Results and discussion Psychological indicators will be analyzed statistically to discuss psychological responses during and before and after watching TV video. The preference of all subjects for horror video stimulation was 0.4 or less, so we focus only on the immersive feeling. In a 5-step immersive evaluation after watching horror video, 4 or 5 is Horror (Concentration) (hereinafter abbreviated as "Horror (C)"), and 1 or 2 is Horror (Not concentration) (hereinafter "Horror (N)"). Classified as (abbreviation). Hereafter, the results will be described by the classification of "Positive", "Negative", "Horror (C)", and "Horror (N)". The number of "Horror (C)" is 10, and the number of "Horror (N)" is 4. The average of all subjects on each mood scale of MMS is shown in Figures 16-19.
N = 14 in FIG. 16, N = 14 in FIG. 17, N = 10 in FIG. 18, and N = 4 in FIG. The averages of all subjects in "pleasure / discomfort", "awakening", "vitality", "preference" and "immersion" of immersive feeling are shown in FIGS. 20 to 23. N = 14 in FIG. 20, N = 14 in FIG. 21, N = 10 in FIG. 22, and N = 4 in FIG. 23.

「Positive」は図16より,A,AFにおいて有意に増加し,Fにおいて有意に減少した。一方「Negative」は図17より,H,Fにおいて有意に増加した。これは,それぞれ正嗜好および負嗜好の映像コンテンツを視聴する行為と整合する。「Horror(C)」は図18において,A,および,Iの有意な減少を示しており,総じて不快情動が喚起されたものと推測できる。また,図19より図18の方が有意差のあった尺度が多い。 From Fig. 16, "Positive" increased significantly in A and AF, and decreased significantly in F. On the other hand, "Negative" increased significantly in H and F from Fig. 17. This is consistent with the act of viewing video content with positive and negative tastes, respectively. “Horror (C)” shows a significant decrease in A and I in FIG. 18, and it can be inferred that unpleasant emotions were aroused as a whole. In addition, there are more scales with a significant difference in FIG. 18 than in FIG.

これより,ホラーは没入していない時と比べて,没入している方が感情の変化が大きいと推測できる。図20より「Positive」は快・不快感,覚醒感および活力において有意に増加した。これより,正嗜好の映像コンテンツは被験者に対して‘爽快感’や‘快適性’を伴う積極的快適性をもたらしたと考えられる。 From this, it can be inferred that the change in emotions of horror is greater when it is immersive than when it is not immersive. From FIG. 20, “Positive” was significantly increased in pleasure / discomfort, arousal, and vitality. From this, it is considered that the positive preference video content provided the subject with positive comfort accompanied by "exhilaration" and "comfort".

逆に,図21より「Negative」は快・不快感,覚醒感および活力において有意に減少していることから,負嗜好の映像コンテンツは被験者に対して‘鬱屈’や‘不快感’を伴う消極的不快感をもたらしたと考えられる。また,図22より「Horror(C)」は覚醒感において有意に増加し,快・不快感および活力において有意に減少していることから‘覚醒感’や‘不快感’を伴う積極的不快感をもたらしたと考えられる。 On the contrary, from FIG. 21, since "Negative" is significantly reduced in pleasure / discomfort, arousal, and vitality, the negative preference video content is reluctant to the subject with "depression" or "discomfort". It is thought that it caused physical discomfort. In addition, as shown in FIG. 22, “Horror (C)” was significantly increased in arousal and significantly decreased in pleasure / discomfort and vitality, and thus positive discomfort accompanied by'awakening'and'discomfort'. Is thought to have brought about.

続いて,TV映像視聴時およびTV映像視聴前後における生理応答を議論する。各生理指標の被験者間平均の時間的変動を図24に示す。図24においてN=14である。上段からNST,α波,HF,MP,HR,SV,CO,TPRである。TEST区間の始まりを0としている。図中のエラーバーは10s毎の標準誤差を表す。また,NST,MP,HR,SV,CO,TPRおよび没入感はR1区間のベースラインを0,α波およびHFはR1区間のベースラインを1として規格化し,TEST区間全体のベースラインからの変位に関するWilcoxonの符号順位検定の有意確率pを図25に示す(+:p<0。1,*:p<0。05,**:p<0。01)。表中のPは各指標に対する正の応答,Nは負の応答を意味する。図25においてN=14である。 Next, we discuss the physiological response when watching TV images and before and after watching TV images. The time variation of the average between subjects of each physiological index is shown in FIG. In FIG. 24, N = 14. From the top, NST, alpha wave, HF, MP, HR, SV, CO, TPR. The beginning of the TEST interval is 0. The error bars in the figure represent the standard error every 10s. In addition, NST, MP, HR, SV, CO, TPR and immersive feeling are standardized with the baseline of the R1 section set to 0, and α wave and HF are standardized with the baseline of the R1 section set to 1, and the displacement of the entire TEST section from the baseline. The significance probability p of Wilcoxon signed rank test for is shown in FIG. 25 (+: p <0.11, *: p <0.05, **: p <0.01). In the table, P means a positive response to each index, and N means a negative response. In FIG. 25, N = 14.

図24より各指標毎の時系列変化を眺めると,NSTについては「Positive」,および「Negative」共にTEST区間開始とともに下降しているため,交感神経が亢進したことが推測される。α波はいずれも有意な変化は見られなかった。HFは図25より,「Positive」では有意な変化は見られなかったが,「Negative」は有意に減少したことがわかる。HFは副交感神経系活動の指標とされ,副交感神経の亢進・抑制に応じて増加・減少するため,「Negative」は副交感神経が抑制されていると考えられる。これは前述のNSTにおける解釈と一致している。 Looking at the time-series changes for each index from FIG. 24, it is inferred that the sympathetic nerves were enhanced because both “Positive” and “Negative” decreased with the start of the TEST section for NST. No significant change was observed in any of the α waves. From Fig. 25, it can be seen that HF did not show a significant change in "Positive", but decreased significantly in "Negative". Since HF is used as an index of parasympathetic nervous system activity and increases or decreases as the parasympathetic nerve increases or decreases, it is considered that the parasympathetic nerve is suppressed in "Negative". This is consistent with the NST interpretation above.

ホラー映像の各生理指標の被験者間平均の時間的変動を図26に示す。図26においてN=14である。図26より,「Horror(N)」はNSTが下降しているため,交感神経が亢進したことが推測される。α波についてはどちらにも有意な結果は得られなかった。HFは「Horror(C)」で有意に減少し,「Horror(N)」では有意に上昇していることがわかる。HFは「Horror(N)」においては,前述のNSTにおける解釈と一致しなかった。これは,メカニズムの違いによるものと考えられる。後記に示すように「Horror(N)」はTPRの上昇を特徴とした受動的対処を示している。結果として,末梢部の血流量が減少して,NSTが低下したものと考えられる。 FIG. 26 shows the temporal variation of the average between subjects of each physiological index of the horror image. In FIG. 26, N = 14. From FIG. 26, it is inferred that the sympathetic nerve was enhanced in "Horror (N)" because the NST was lowered. No significant results were obtained for either alpha wave. It can be seen that HF decreased significantly in "Horror (C)" and increased significantly in "Horror (N)". HF did not agree with the above-mentioned interpretation in NST in "Horror (N)". This is thought to be due to the difference in mechanism. As shown below, "Horror (N)" indicates a passive response characterized by an increase in TPR. As a result, it is considered that the blood flow in the peripheral part decreased and the NST decreased.

次に,「Positive」,「Negative」,「Horror(C)」および「Horror(N)」を,没入感と嗜好のパターンによってカテゴライズし,血行力学応答を比較検討する。結果として,図27のようにストレス対処様式と嗜好の軸で纏めることができる。図27においてN=14である。
「Positive」と「Horror(C)」は共に没入感は高いが,「Positive」は正嗜好,「Horror(C)」は負嗜好である。しかしながら,双方とも MP,HR,SV および CO の増加,TPR の減少が見られる。これは心筋収縮活動の増大を主とする典型的なパターン I の反応(能動的対処)である。
Next, "Positive", "Negative", "Horror (C)" and "Horror (N)" are categorized according to the pattern of immersiveness and preference, and the hemodynamic response is compared and examined. As a result, as shown in FIG. 27, it can be summarized by the stress coping style and the axis of preference. In FIG. 27, N = 14.
Both "Positive" and "Horror (C)" are highly immersive, but "Positive" is a positive preference and "Horror (C)" is a negative preference. However, both have increased MP, HR, SV and CO, and decreased TPR. This is a typical pattern I response (active coping) with increased myocardial contractile activity.

つまり,能動的対処のときは嗜好に関わらず,TV 映像コンテンツに没入している事が明らかとなった。また,要因抽出実験の結果から類推すると,生理計測実験のホラー映像に対しても同様に嗜好が高い被験者は没入感も共に高くなり,図27の右上領域に位置することが予想されるが,該当者はいなかった。一方,「Negative」と「Horror(N)」は共に没入感および嗜好は低い。しかしながらその生理応答は異なっている。すなわち,「Negative」では TPR,HR の減少が見られたものの,MP の変化は見られなかった。これは,能動的対処,受動的対処どちらでもなく,ストレス対処していないと考えられる。なお、図27においてN=14である。 In other words, it became clear that they were immersed in TV video content regardless of their tastes when actively coping with them. In addition, by analogy with the results of the factor extraction experiment, it is expected that the subjects who have a high preference for the horror image of the physiological measurement experiment also have a high immersive feeling and are located in the upper right region of FIG. 27. There was no such person. On the other hand, both "Negative" and "Horror (N)" have low immersiveness and taste. However, their physiological responses are different. In other words, in "Negative", TPR and HR decreased, but MP did not change. This is neither active coping nor passive coping, and it is considered that stress coping is not done. In FIG. 27, N = 14.

これに対して,「Horror(N)」はHRに有意な変動が無いものの,TPR,MPの有意な増加が特徴的である。これは末梢血管収縮の増大によるMPの増加を主とする典型的なパターンIIの反応(受動的対処)である。これより,ストレス対処を示さない時,通常は嗜好が低く,TV映像コンテンツに没入していないが,ホラー映像に関しては受動的対処を示すことが明らかとなった。つまり,TV映像に対する嗜好だけで視聴様態は定まらず,ストレス対処様式によって視聴様態を分類できることが明らかとなった。 On the other hand, "Horror (N)" is characterized by a significant increase in TPR and MP, although there is no significant change in HR. This is a typical pattern II response (passive coping) with an increase in MP due to increased peripheral vasoconstriction. From this, it was clarified that when stress coping is not shown, the preference is usually low and the person is not absorbed in the TV video content, but passive coping is shown for horror video. In other words, it was clarified that the viewing mode cannot be determined only by the preference for TV images, and the viewing mode can be classified according to the stress coping style.

4.まとめ
本研究では,嗜好の異なる映像コンテンツを視聴した時の生理心理計測を実施し,生理学的に論拠のあるストレス対処様式によって視聴様態の分類を試みた。心臓血管系指標として血行力学的パラメーター(MP,HR,SV,CO,TPR),中枢神経系指標としてEEGのα波パワースペクトル,自律神経系指標として鼻部皮膚温度および心拍変動HF成分を計測し,同時計測した映像に対する嗜好,および心理アンケートも含め,生理心理状態に関する統計的分析を行い,映像コンテンツを視聴した時の生理心理効果を定量的に評価した。
Four. Summary In this study, we measured the physiology and psychology of viewing video content with different tastes, and attempted to classify the viewing mode according to the stress coping style that is physiologically valid. Hemodynamic parameters (MP, HR, SV, CO, TPR) are measured as cardiovascular indicators, EEG α-wave power spectrum is measured as central nervous system indicators, and nasal skin temperature and heart rate variability HF components are measured as autonomic nervous system indicators. , Preference for simultaneously measured images, and a statistical analysis of the physiological and psychological state, including a psychological questionnaire, were performed to quantitatively evaluate the physiological and psychological effects when viewing the video content.

その結果,本研究における嗜好に関する心理指標による分類は,先行研究においては全く評価されていないため,本研究のストレス対処および嗜好を組み合わせる事で,テレビ視聴に対する新たな分類が得られた。結論として,能動的対処の時,TV映像は「Positive」および「Horror(C)」,受動的対処の時,TV映像は「Horror(N)」,ストレス対処を行っていない時,TV映像は「Negative」であった。つまり,TV映像に対する嗜好だけで視聴様態は判別できないが,血行力学的パラメーターによるストレス応答によって,視聴様態を判別できることが明らかとなった。 As a result, since the classification by psychological index regarding preference in this study was not evaluated at all in the previous study, a new classification for watching TV was obtained by combining stress coping and preference in this study. In conclusion, during active coping, the TV image is "Positive" and "Horror (C)", during passive coping, the TV image is "Horror (N)", when stress coping is not performed, the TV image is It was "Negative". In other words, it was clarified that the viewing mode cannot be discriminated only by the preference for TV images, but the viewing mode can be discriminated by the stress response by the hemodynamic parameters.

<参考文献>
(1)平田明裕・諸藤絵美・荒牧央:「テレビ視聴とメディア利用の現在(2)〜「日本人とテレビ2010」調査から〜」,放送研究と調査,pp.2-27(2010)
(2)荒牧央・増田智子・中野佐知子:「テレビは20代にどう向き合ってゆくのか」,放送研究と調査,pp.2−21(2008)
(3)Y. Siki, Y. Murakami, and Y. Huzita: “Television viewing and simultaneous use of new media: anethnographic study of young people in Japan”, Institute for Media andCommunication Research Keio University, Vol.59, No.1, pp.131-140 (2009) (inJapanese) 志岐裕子・村山 陽・藤田結子:「若者のテレビ視聴とメディア並行利用行動&#8211;大学生のオーディエンス・エスノグラフィ調査から」,慶応義塾大学メディア・コミュニケーション研究所紀要,Vol.59, No.1, pp.131-140 (2009)
(4)S. Nomura, Y. Kurosawa, N. Ogawa, C.M. Althaff Irfan, K. Yajima, S. Handri, T. Yamagishi, K.T.Nakahira, and Y. Fukumura:“Psysiological Evaluation of a student in E-learning Sessions by Hemodynamic Response”, IEEJ Trans. EIS,Vol.131, No.1, pp.146-151 (2011) (in Japanese) 野村収作・Irfan C. M. Althaff・山岸隆雄・黒澤儀将・矢島邦昭・中平勝子・小川信之・HANDRI Santoso・福村好美:「血行力学的パラメーターによるeラーニング受講者の生理評価研究」,電学論 C,Vol.131,No.1,pp.146-151 (2011)
(5)T. Watanuki and A. Nozawa: “Visualization of a feeling of concentration for TV contents”,Bulletin of Institute of Electrical and Electronic Engineers of measurement, Vol.IM-12, No.63,pp.19-25 (2012) (in Japanese) 綿貫卓也・野澤昭雄:「TV コンテンツに対する没入感の可視化」,電気電子学会計測研資,Vol.IM-12, No.63, pp.19-25 (2012)
(6)K. Mori, C. Ono, Y. Motomura, H. Asoh, and A. Sakurai: “Empirical Analysis of User Preference Models forMovie Recommendation”, IEIC Technical Report.NC.neurocomputing, Vol.104,No.759, pp.77-82 (2005)(in Japanese) 黒川茂莉・小野智弘・本村陽一・麻生英樹・櫻井彰人:「映画コンテンツ推薦のためのユーザ嗜好性モデルの実験的評価」,信学会技報。NC. ニューロコンピューティング,Vol.104, No.759,pp.77-82(2005)
(7)澤田幸展:「血行力学的反応;新生理心理学 I 巻 (藤澤清,柿木昇治,山崎勝男編)」,北大路書房,第 10 章,p.187(1998)
(8)J.A. Russell: “A circumplex model of affect”, J. Personality and Social Psychology, Vol.39, pp.1161-1178(1980)
<References>
(1) Akihiro Hirata, Emi Moroto, Hiroshi Aramaki: "Current TV Viewing and Media Use (2) -From the" Japanese and TV 2010 "Survey-", Broadcasting Research and Survey, pp.2-27 (2010)
(2) Hiroshi Aramaki, Tomoko Masuda, Sachiko Nakano: "How TV faces people in their twenties", Broadcasting Research and Survey, pp.2-21 (2008)
(3) Y. Siki, Y. Murakami, and Y. Huzita: “Television viewing and simultaneous use of new media: anethnographic study of young people in Japan”, Institute for Media and Communication Research Keio University, Vol.59, No.1 , pp.131-140 (2009) (inJapanese) Yuko Shiki, Akira Murayama, Yuko Fujita: "Young people watching TV and media parallel use behavior &#8211; From Audience Ethnography Survey of University Students", Keio University Media Bulletin of Communication Research Institute, Vol.59, No.1, pp.131-140 (2009)
(4) S. Nomura, Y. Kurosawa, N. Ogawa, CM Althaff Irfan, K. Yajima, S. Handri, T. Yamagishi, KTNakahira, and Y. Fukumura: “Psysiological Evaluation of a student in E-learning Sessions by Hemodynamic Response ”, IEEJ Trans. EIS, Vol.131, No.1, pp.146-151 (2011) (in Japanese) Nomura Shusaku, Irfan CM Althaff, Takao Yamagishi, Yoshimasa Kurosawa, Kuniaki Yajima, Katsuko Nakahira・ Nobuyuki Ogawa ・ HANDRI Santoso ・ Yoshimi Fukumura: "Physiological evaluation study of e-learning students by hemodynamic parameters", Denkiron C, Vol.131, No.1, pp.146-151 (2011)
(5) T. Watanuki and A. Nozawa: “Visualization of a feeling of concentration for TV contents”, Bulletin of Institute of Electrical and Electronic Engineers of measurement, Vol.IM-12, No.63, pp.19-25 ( 2012) (in Japanese) Takuya Watanuki and Akio Nozawa: "Visualization of Immersiveness in TV Content", Institute of Electrical and Electronic Engineers, Vol.IM-12, No.63, pp.19-25 (2012)
(6) K. Mori, C. Ono, Y. Motomura, H. Asoh, and A. Sakurai: “Empirical Analysis of User Preference Models for Movie Recommendation”, IEIC Technical Report.NC.neurocomputing, Vol.104, No.759 , pp.77-82 (2005) (in Japanese) Shigeru Kurokawa, Tomohiro Ono, Yoichi Motomura, Hideki Asoh, Akito Sakurai: "Experimental Evaluation of User Preference Model for Recommendation of Movie Content", IEICE Technical Report .. NC. Neurocomputing, Vol.104, No.759, pp.77-82 (2005)
(7) Yuki Sawada Exhibition: "Physiological Psychology: New Physiological Psychology Volume I (Kiyoshi Fujisawa, Shoji Kakinoki, Katsuo Yamazaki)", Kitaooji Shobo, Chapter 10, p.187 (1998)
(8) JA Russell: “A circumplex model of affect”, J. Personality and Social Psychology, Vol.39, pp.1161-1178 (1980)

<実験例3>
1.実験の主旨
近年,テレビ放送のデジタル・多チャンネル化が進んでいる。しかし,IT 技術の進展による小型化・高性能化された情報通信機器の普及,および,情報ネットワーク環境の発達に伴い,娯楽としてのテレビ離れが加速し,テレビの視聴理由が多様化している。平田らはテレビを視聴する理由として,「世の中の出来事や動きを知るため」,「疲れを休めたり,くつろぐため」,「人とのつきあいを深めたり,広めたりするため」などの理由を挙げている(1)。また,テレビの視聴理由だけでなく視聴様態においても,テレビ離れに伴い,漠然とした視聴態度や視聴習慣の弱まりなど,関与の薄い見方へと変わっている(2)。志岐らは,テレビを集中して視聴する「専念視聴」,家事,飲食,勉強など,他の生活活動と並行しながら視聴する「ながら視聴」,ザッピングしながらなんとなくいろいろな番組を視聴する「漠然視聴」などの視聴様態を挙げている(3)。このように,視聴様態は様々であり,時間・場所・気分などの要因によって変容することが明らかとなっている。
<Experimental example 3>
1. 1. Purpose of the experiment In recent years, digital and multi-channel television broadcasting has been increasing. However, with the spread of miniaturized and high-performance information and communication equipment due to the progress of IT technology and the development of the information network environment, the departure from television as entertainment is accelerating, and the reasons for watching television are diversifying. Hirata et al. Cited reasons for watching TV, such as "to know the events and movements of the world,""to rest and relax," and "to deepen and spread relationships with people." (1). Moreover, not only the reason for watching TV, but also the viewing mode has changed to a less involved view, such as vague viewing attitudes and weakening of viewing habits, as people move away from TV (2). Shiki et al. Watched "dedicated viewing" to watch TV intensively, "watching while watching" in parallel with other activities of daily living such as housework, eating and drinking, studying, and "vaguely watching various programs while zapping". It lists viewing modes such as "viewing" (3). In this way, it has been clarified that the viewing mode is various and changes depending on factors such as time, place, and mood.

しかし,これらの視聴様態を分類する研究は世論調査や事後の内省評価などの心理的な応答を用いたものがほとんどで,生理的な応答を用いて視聴様態を分類した研究はない。テレビの映像と音声は生体に対する視聴覚刺激であるため,それ自体がストレッサーとみなされる。ストレッサーは生体にストレス対処を促し,ストレス応答として生理・心理的変化をもたらす。
テレビの種々のコンテンツをストレッサーとみなせば,コンテンツに対する対処,すなわち視聴様態によってその生理的ストレス応答は異なる事が予想される。野村らは,心臓血管系指標によって,e ラーニングコンテンツへの対処様態を分類している (4)。
However, most of the studies that classify these viewing modes use psychological responses such as opinion polls and introspection evaluations after the fact, and there are no studies that classify viewing patterns using physiological responses. Since television video and audio are audiovisual stimuli for living organisms, they are considered stressors in their own right. The stressor encourages the living body to cope with stress and brings about physiological and psychological changes as a stress response.
If various contents of television are regarded as stressors, it is expected that the physiological stress response will differ depending on the coping with the contents, that is, the viewing mode. Nomura et al. Classify how to deal with e-learning content by cardiovascular index (4).

そこで,これまで,心臓血管系指標による TV 映像コンテンツに対する視聴様態や嗜好の分類を試みてきた (5)。また,分類だけでなく推定モデルを構築する研究もされている。
黒川らは,ナイーブベイズ,決定木,ベイジアンネットワーク,ニューラルネットワークを用いて,映像コンテンツに対するユーザ嗜好性モデルを構築し,コンテンツ評価に対する予測精度と重要変数を抽出した(6)。しかし,この研究も心理的な応答のみを用いたモデルであり,生理的な応答を用いて嗜好や視聴様態の推定モデルを構築している研究はない。
Therefore, we have tried to classify viewing modes and preferences for TV video content using cardiovascular indicators (5). In addition to classification, research is also being conducted to build an estimation model.
Kurokawa et al. Constructed a user preference model for video content using naive Bayes, decision trees, Bayesian networks, and neural networks, and extracted prediction accuracy and important variables for content evaluation (6). However, this study is also a model that uses only psychological responses, and there is no study that constructs an estimation model of preference and viewing mode using physiological responses.

これまでの研究の結果,血行力学的パラメーターに基づくストレス対処様式,および,心拍数によって,コンテンツに対する嗜好や没入など,テレビ視聴者の生理心理状態を分類できる可能性が示唆されている。そこで本研究は,心臓血管系指標による上記のテレビ視聴に関する視聴者の生理心理状態推定の実験的検討を目的とする。心臓血管系指標から特徴ベクトルを抽出し,テレビ映像コンテンツに対する嗜好,視聴様態,および,興奮−鎮静の各推定モデルの作成,および,評価を行った。 The results of previous studies suggest that stress coping patterns based on hemodynamic parameters and heart rate may be able to classify the physiological and psychological states of TV viewers, such as preference and immersion in content. Therefore, the purpose of this study is to experimentally examine the estimation of the physiological and psychological state of the viewer regarding the above-mentioned television viewing by the cardiovascular index. Feature vectors were extracted from the cardiovascular index, and estimation models for TV video content preference, viewing mode, and excitement-sedation were created and evaluated.

2.実験
TV映像コンテンツ視聴時の,連続血圧計による心臓血管系計測を行った。その後,血行力学的パラメーターを元に階層型ニューラルネットワークを用いたパターン認識を行うことで,TV映像コンテンツ視聴時における嗜好,視聴様態,および,興奮−鎮静の推定を行った。
2. Experiment
Cardiovascular measurement was performed with a continuous sphygmomanometer when watching TV video content. After that, by performing pattern recognition using a hierarchical neural network based on the hemodynamic parameters, we estimated the preference, viewing mode, and excitement-sedation when watching TV video content.

〈2・1〉実験手順
本実験は、図28に示すように,5分間の映像視聴,およびその前後の1分間の安静・閉眼状態R1,R2により構成される。映像視聴前後のVisual Analogue Scale(以下,VASと略記),映像視聴後の没入感調査より,それぞれの映像コンテンツへの嗜好および没入感評価を行った。また,映像視聴中にはリアルタイムに被験者が感じている主観的興奮−鎮静の変動を記録した。
〈2・2〉実験条件
被験者は日本の大学に在籍する健常な学生14名(年齢:19-22,平均年齢:21。4,男性:7名,女性7名)である。被験者には予め実験内容・目的・調査対象を口頭および書面にて十分説明し,署名により実験協力に対する同意を確認した。計測は室温26。0±1。6℃の対流のないシールドルームで行い,映像コンテンツの切り替え,および,生理計測状況の確認のために,同じ部屋に実験実施者1名が同席した。体表面温度の室温への馴化を図る為,実験は被験者入室後から20分以上経過後に実施した。
<2.1> Experimental procedure
As shown in FIG. 28, this experiment consists of 5 minutes of video viewing and 1 minute of rest / eye closure R1 and R2 before and after that. From the Visual Analogue Scale (hereinafter abbreviated as VAS) before and after watching the video and the immersive feeling survey after watching the video, the preference and immersive feeling for each video content were evaluated. In addition, the subjective excitement-sedation fluctuations felt by the subject were recorded in real time during video viewing.
<2.2> Experimental conditions The subjects were 14 healthy students (age: 19-22, average age: 21.4, male: 7, female: 7) enrolled in a Japanese university. The subjects were fully informed in advance of the content, purpose, and subject of the experiment in oral and written form, and their consent to the cooperation of the experiment was confirmed by signature. The measurement was performed in a convection-free shielded room at room temperature of 26.0 ± 1.6 ° C, and one experimenter was present in the same room to switch video content and check the physiological measurement status. In order to adjust the body surface temperature to room temperature, the experiment was conducted 20 minutes or more after the subject entered the room.

被験者は座位にて,前方2mの位置に設置された液晶テレビ(55インチ,HX850,BRAVIA,SONY製)を用いて,正嗜好・高没入の映像コンテンツ(以降,「Positive」と略記),負嗜好・低没入の映像コンテンツ(以降,「Negative」と略記),および,低嗜好だが没入感に大きく個人差があるという特異な結果を示したホラー映像の3種を視聴する。映像コンテンツはDVDプレイヤー(SCPH-3900,SONY製)で再生した。 The subject was sitting, using an LCD TV (55 inches, HX850, BRAVIA, made by SONY) installed 2 m in front of him, and had positive taste and highly immersive video content (hereinafter abbreviated as "Positive"), negative. Watch three types of video content: low-preference / low-immersive video content (hereinafter abbreviated as "Negative"), and horror video that shows unique results that there are large individual differences in low-preference but immersive feeling. The video content was played on a DVD player (SCPH-3900, made by SONY).

〈2・3〉計測システム
計測システムを図29に示す。被験者は座位にて,連続血圧計を装着した。連続血圧計(Finometer model2, Finapres Medical Systems B。V。製)は左腕の中指第二関節にカフを装着し,サンプリング周波数200HzでPCに記録した。また,目の前にキーボード(K270,Logicool製)を設置し,キーボードの上下キーよりリアルタイムに被験者が感じている主観的興奮−鎮静の変動を入力するソフトウェアを用いて,逐次的かつ相対的な興奮−鎮静を記録した。
<2.3> Measurement system The measurement system is shown in FIG. The subject was sitting and wearing a continuous sphygmomanometer. A continuous sphygmomanometer (Finometer model2, manufactured by Finapres Medical Systems B.V.) was equipped with a cuff on the second joint of the middle finger of the left arm and recorded on a PC at a sampling frequency of 200 Hz. In addition, a keyboard (K270, made by Logitech) is installed in front of you, and software is used to input the subjective excitement-sedation fluctuations that the subject feels in real time from the up and down keys of the keyboard, and it is sequential and relative. Excitement-sedation was recorded.

〈2・4〉評価法
生理指標は,平均血圧Mean pressure,以下MPと略記),心拍数(Heartrate,以下HRと略記),一回拍出量(Stroke Volume,以下SVと略記),心拍出量(Cardiac output,以下COと略記),全末梢抵抗(Totalperipheral resistance,以下TPRと略記)とした。血行力学的パラメーター(MP,HR,SV,CO,TPR)は外界のストレスに応じて特徴的な反応パターン(パターンI,パターンII)を示すことが知られており,ストレスに対する心臓血管系の生理反応を理解する上で重要な概念となっている。具体的にはパターンIは心筋の収縮活動の亢進や血管拡張による骨格筋への血液量の増大に特徴づけられ,これはいわば,エネルギー消費型の反応(能動的対処)といえる。一方パターンIIは末梢血管の収縮に特徴づけられ,また,心拍数もおおむね減少し,これはいわば,エネルギー節約型の反応(受動的対処)といえる(7)。MP,HR,SV,CO,TPRはR1区間のベースラインを0として規格化した。
<2.4> Evaluation method
Physiological indicators are mean blood pressure Mean pressure (hereinafter abbreviated as MP), heart rate (hereinafter abbreviated as HR), stroke volume (hereinafter abbreviated as SV), cardiac output (hereinafter abbreviated as Cardiac output). CO) and total peripheral resistance (hereinafter abbreviated as TPR). Hemodynamic parameters (MP, HR, SV, CO, TPR) are known to exhibit characteristic response patterns (Pattern I, Pattern II) in response to external stress, and cardiovascular physiology to stress. It is an important concept in understanding the reaction. Specifically, pattern I is characterized by increased contractile activity of the myocardium and increased blood volume to skeletal muscle due to vasodilation, which can be said to be an energy-consuming reaction (active coping). On the other hand, pattern II is characterized by the contraction of peripheral blood vessels, and the heart rate is also generally reduced, which can be said to be an energy-saving reaction (passive coping) (7). MP, HR, SV, CO, and TPR were standardized with the baseline of the R1 section set to 0.

また,心理指標として,実験開始前,および実験終了時に,「覚醒感」「快・不快感」「活力」「嗜好」4種類の主観的感覚量をVASを用いて計測した。「快・不快感」,および,「覚醒感」はラッセルの情動二元論における基本成分として,本研究における心理評価の項目に選択した(8)。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については,覚醒感は「とても眠い」-「はっきり目覚めている」,快・不快感は「非常に不快」-「非常に快適」,活力は「とても疲れている」-「とても元気」,嗜好は「とても嫌い」-「とても好き」とした。 In addition, as psychological indicators, four types of subjective sensory quantities, "awakening," "pleasure / discomfort," "vitality," and "preference," were measured using VAS before and at the end of the experiment. "Pleasure / discomfort" and "awakening" were selected as the basic components in Russell's emotional dualism as items of psychological evaluation in this study (8). In VAS, it is possible to measure the psychophysical quantity of a subject by arranging paired adjectives at both ends of the line segment and the subject checking at an arbitrary position on the line segment. Regarding the words placed at both ends of the scale, the awakening feeling is "very sleepy"-"clearly awake", the pleasure / discomfort is "very unpleasant"-"very comfortable", and the vitality is "very tired". -"Very energetic", taste "Very disliked"-"Very liked".

各VASは独立した紙面にて用意し,順次,再帰参照なく自筆により記録するよう教示した。さらに,実験終了後に映像に対する没入感を5ポイントスケール(1:全く没入できなかった−5:かなり没入した)で計測した。なお,各心理指標の映像視聴前後の差の検定には対応のあるt検定を用い,各生理指標におけるTEST区間全体の変化量についてはWilcoxonの符号順位検定を用いた。興奮−鎮静は,積算の最大値を基準にして規格化を行った。 We prepared each VAS on a separate page and taught them to record by hand without recursive reference. Furthermore, after the experiment was completed, the immersive feeling in the image was measured on a 5-point scale (1: I could not immerse at all-5: I was quite immersive). A paired t-test was used to test the difference between each psychological index before and after viewing the video, and Wilcoxon signed rank test was used to test the amount of change in the entire TEST section for each physiological index. Excitement-sedation was normalized based on the maximum value of integration.

嗜好,視聴様態分類モデルの作成・判別率の導出,および,各被験者毎の興奮−鎮静推定モデルの作成・推定値の導出は,階層型ニューラルネットワークによるパターン認識を用いた。
階層型ニューラルネットワークの構造を図30に示す。学習則は誤差逆伝搬法,出力関数はシグモイド関数とした。階層は,入力層,中間層,出力層の3階層となる。モデルの精度の推定には交差検証法を用いた。また,図31に示すように,各指標の時経変動に対して判別時間tdを想定する。tdは映像視聴中の300sである。それぞれのモデルは,td区間内の各特徴量時系列において,Δti当たりの傾きに着目し,10s間隔毎の一連の傾きを特徴ベクトルSとする。Sの要素数は30となる。これに合わせて,本稿のニューラルネットワークでは,入力層の素子数は30,中間層の素子数は16とした。
Pattern recognition by a hierarchical neural network was used to create a preference and viewing mode classification model and derive the discrimination rate, and to create an excitement-sedation estimation model and derive estimated values for each subject.
The structure of the hierarchical neural network is shown in FIG. The learning rule is the error back propagation method, and the output function is the sigmoid function. There are three layers: input layer, intermediate layer, and output layer. Cross-validation was used to estimate the accuracy of the model. Further, as shown in FIG. 31, the discrimination time td is assumed for the time-dependent fluctuation of each index. td is 300s while watching the video. In each model, we focus on the slope per Δti in each feature time series in the td interval, and let the feature vector S be a series of slopes at 10s intervals. The number of elements of S is 30. In line with this, in the neural network of this paper, the number of elements in the input layer is 30 and the number of elements in the intermediate layer is 16.

〈2・4・1〉嗜好分類モデル 特徴量として心拍数を使用し,Δtiとして10s,20s,30s,40s,50s,60sを検討した。全学習データは被験者14人の各嗜好(Positive,Negative)を合わせた28パターンあり,そのうち27パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。「Positive」,「Negative」の時における特徴ベクトルSを学習させた後,未知のデータを入力することで嗜好分類モデルの精度を評価した。出力層は「Positive」,「Negative」の2素子である。
〈2・4・2〉視聴様態分類モデル特徴量として血行力学的パラメーターを使用し,Δtiとして10s,20s,30s,40s,50s,60sを検討した。全学習データは被験者14人の各ストレス対処様式(能動的対処,受動的対処,ストレス対処無し)を合わせた42パターンあり,そのうち41パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。出力層は能動的対処,受動的対処,ストレス対処無しの3素子である。
<2 ・ 4 ・ 1> Preference classification model Heart rate was used as a feature, and 10s, 20s, 30s, 40s, 50s, and 60s were examined as Δti. The total learning data had 28 patterns including the preferences (Positive, Negative) of 14 subjects, of which 27 patterns were used as learning data and the remaining 1 pattern was used as unknown data to evaluate the accuracy of the preference classification model. After training the feature vector S at the time of "Positive" and "Negative", the accuracy of the preference classification model was evaluated by inputting unknown data. The output layer consists of two elements, "Positive" and "Negative".
<2 ・ 4 ・ 2> The hemodynamic parameters were used as the features of the viewing mode classification model, and 10s, 20s, 30s, 40s, 50s, and 60s were examined as Δti. There are 42 patterns of all learning data, including each stress coping style (active coping, passive coping, no stress coping) of 14 subjects, of which 41 patterns are learning data and the remaining 1 pattern is unknown data, which is a preference classification model. The accuracy of was evaluated. The output layer consists of three elements: active coping, passive coping, and no stress coping.

〈2・4・3〉興奮−鎮静 推定モデル特徴量として血行力学的パラメーターを使用し,Δtiは30sとした。全学習データは被験者14人の各嗜好(Positive,Negative)における興奮−鎮静値を合わせた28パターンあり,そのうち27パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。出力層は興奮−鎮静値の1素子である。
〈2・5〉結果および考察VASにおいて,各気分尺度における全被験者平均の映像視聴前と映像視聴後の差を図32(+:p<0.1,*:p<0.05,**:p<0.01)に示す。図32においてN=14である。図32より,ホラー映像刺激に対しては,全被験者が低嗜好であった。そこで,ホラー映像視聴後の5段階の没入感評価において,4あるいは5ならHorror(Concentration)(以下「Horror(C)」と略記),1あるいは2ならHorror(No-concentration)(以下「Horror(N)」と略記)として分類した。以降の結果は,「Positive」,「Negative」,「Horror(C)」,「Horror(N)」に分類する。また,「Horror(C)」の人数は10人,「Horror(N)」の人数は4人である。
<2 ・ 4 ・ 3> Excitement-sedation The hemodynamic parameters were used as the estimated model features, and Δti was set to 30 s. All learning data had 28 patterns including excitement-sedation values for each preference (Positive, Negative) of 14 subjects, of which 27 patterns were used as learning data and the remaining 1 pattern was used as unknown data to evaluate the accuracy of the preference classification model. .. The output layer is one element of excitement-sedation value.
<2.5> Results and discussion In VAS, the difference between the average of all subjects before and after video viewing on each mood scale is shown in Fig. 32 (+: p <0.1, *: p <0.05, **: p <0.01). ). In FIG. 32, N = 14. From FIG. 32, all the subjects had a low preference for horror video stimulation. Therefore, in the five-level immersive evaluation after watching the horror video, if it is 4 or 5, it is Horror (Concentration) (hereinafter abbreviated as "Horror (C)"), and if it is 1 or 2, it is Horror (No-concentration) (hereinafter "Horror (" It was classified as "N)" and abbreviated as). Subsequent results are classified into "Positive", "Negative", "Horror (C)", and "Horror (N)". The number of "Horror (C)" is 10, and the number of "Horror (N)" is 4.

MP,HR,SV,CO,TPRの,TEST区間全体のベースラインからの変位に関するWilcoxonの符号順位検定の有意確率pを図33に示す(+:p<0。1,*:p<0。05,**:p<0。01)。表中のPは各指標に対する正の応答,Nは負の応答を意味する。図33においてN=14である。
図33より,TV映像視聴時における視聴様態の分類を行う。「Positive」と「Horror(C)」は共に没入感は高いが,「Positive」は正嗜好,「Horror(C)」は負嗜好である。
しかしながら,双方ともMP,HR,SVおよびCOの増加,TPRの減少が見られる。これは心筋収縮活動の増大を主とする典型的なパターンIの反応(能動的対処)である。つまり,能動的対処のときは嗜好に関わらず,TV映像コンテンツに没入している事が明らかとなった。
The significance probability p of Wilcoxon signed rank test for the displacement of MP, HR, SV, CO, and TPR from the baseline in the entire TEST interval is shown in FIG. 33 (+: p <0.11, *: p <0. 05, **: p <0.01). In the table, P means a positive response to each index, and N means a negative response. In FIG. 33, N = 14.
From FIG. 33, the viewing mode when viewing TV images is classified. Both "Positive" and "Horror (C)" are highly immersive, but "Positive" is a positive preference and "Horror (C)" is a negative preference.
However, both have increased MP, HR, SV and CO, and decreased TPR. This is a typical pattern I response (active coping) with an increase in myocardial contractile activity. In other words, it became clear that they were immersed in TV video content regardless of their tastes when actively coping with them.

一方,「Negative」と「Horror(N)」は共に没入感および嗜好は低い。しかしながらその生理応答は異なっている。すなわち,「Negative」ではTPR,HRの減少が見られたものの,MPの変化は見られなかった。これは,能動的対処,受動的対処どちらでもなく,ストレス対処していないと考えられる。これに対して,「Horror(N)」はHRに有意な変動が無いものの,TPR,MPの有意な増加が特徴的である。これは末梢血管収縮の増大によるMPの増加を主とする典型的なパターンIIの反応(受動的対処)である。 On the other hand, both "Negative" and "Horror (N)" have low immersiveness and taste. However, their physiological responses are different. In other words, in "Negative", TPR and HR decreased, but MP did not change. This is neither active coping nor passive coping, and it is considered that stress coping is not done. On the other hand, "Horror (N)" is characterized by a significant increase in TPR and MP, although there is no significant change in HR. This is a typical pattern II response (passive coping) with an increase in MP due to increased peripheral vasoconstriction.

これより,ストレス対処を示さない時,通常は嗜好が低く,TV映像コンテンツに没入していないが,ホラー映像に関しては受動的対処を示すことが明らかとなった。つまり,TV映像に対する嗜好だけで視聴様態は定まらず,ストレス対処様式によって視聴様態を分類できることが明らかとなった。また,図33において,HRは「Positive」において有意に増加,「Negative」において有意に減少した。 From this, it was clarified that when stress coping is not shown, the preference is usually low and the person is not absorbed in the TV video content, but passive coping is shown for horror video. In other words, it was clarified that the viewing mode cannot be determined only by the preference for TV images, and the viewing mode can be classified according to the stress coping style. In addition, in FIG. 33, HR increased significantly in "Positive" and decreased significantly in "Negative".

次に,ニューラルネットワークを用いて構築した推定モデルから,嗜好,視聴様態の判別を行った時の判別率の結果を図34,および,図35に示す。図34,図35において,Δti50sの時,嗜好の正判別率は83。3%,視聴様態の正判別率は75%と,他のΔtiと比べて高い正判別率を示した。 Next, FIGS. 34 and 35 show the results of the discrimination rate when the preference and the viewing mode are discriminated from the estimation model constructed by using the neural network. In FIGS. 34 and 35, when Δti50s, the positive discrimination rate of preference was 83.3%, and the positive discrimination rate of the viewing mode was 75%, which were higher than those of other Δti.

また,興奮−鎮静の推定を行った時の,実測興奮−鎮静と予測興奮−鎮静を図36に示す。
図36は実測興奮−鎮静と予測興奮−鎮静の誤差が最も少ない被験者Aの結果を示している。図36上の「Positive」において,実測興奮−鎮静の増加と共に予測興奮−鎮静も増加している。
In addition, FIG. 36 shows measured excitement-sedation and predicted excitement-sedation when excitement-sedation was estimated.
FIG. 36 shows the results of subject A with the smallest error between measured excitement-sedation and predicted excitement-sedation. In "Positive" on FIG. 36, the predicted excitement-sedation increased along with the measured excitement-sedation.

また,図36下の「Negative」において,実測興奮−鎮静の減少と共に予測興奮−鎮静も減少している。次に,実測興奮−鎮静と予測興奮鎮静の差の絶対値を誤差とした時の各被験者の平均誤差を図37に示す。図37において「,Positive」の平均誤差は0。10〜0。37,「Negative」の平均誤差は0。11〜0。29,平均誤差の全被験者間平均は0。17となった。つまり,予測興奮−鎮静は平均して,17%程度の誤差で推定された。また,全被験者の10s間隔毎にとった一連の実測興奮−鎮静,および,予測興奮−鎮静の関係を示した図を図38に示す。図38において,相関係数は0。89と高い相関が得られた。また,図38から,実測興奮−鎮静,および,予測興奮−鎮静の分布は値の大小に依らずほぼ均一であることがわかる。 Moreover, in "Negative" at the bottom of FIG. 36, the predicted excitement-sedation decreased as well as the measured excitement-sedation. Next, FIG. 37 shows the average error of each subject when the absolute value of the difference between the measured excitement-sedation and the predicted excitement sedation is taken as the error. In FIG. 37, the average error of “, Positive” was 0.10 to 0.37, the average error of “Negative” was 0.11 to 0.29, and the average of the average errors among all subjects was 0.17. In other words, predicted excitement-sedation was estimated with an error of about 17% on average. In addition, FIG. 38 shows a series of actually measured excitement-sedation and predicted excitement-sedation relationships taken at intervals of 10 s for all subjects. In FIG. 38, the correlation coefficient was 0.89, which was a high correlation. Further, from FIG. 38, it can be seen that the distributions of actually measured excitement-sedation and predicted excitement-sedation are almost uniform regardless of the magnitude of the values.

3.まとめ
本研究は,ニューラルネットワークを用いた,テレビ映像コンテンツに対する視聴様態,嗜好,興奮−鎮静の推定を目的として,心臓血管系指標から特徴ベクトルを抽出し,テレビ映像コンテンツ視聴時における嗜好,視聴様態,および,興奮−鎮静の推定モデル作成・評価を行った。
3. Summary In this study, for the purpose of estimating the viewing mode, preference, excitement-sedation for TV video content using a neural network, a feature vector was extracted from the cardiovascular index, and the preference when watching TV video content, We created and evaluated an estimated model of viewing mode and excitement-sedation.

結果として,正嗜好・高没入の「Positive」,および,負嗜好・高没入の「Horror(C)」では能動的対処,不嗜好・高没入の「Horror(N)」は受動的対処,負嗜好・低没入の「Negative」ではストレス対処していない,と分類できた。さらに「,Positive」と「Negative」では心拍数が有意に異なり,心拍応答の一般的特性にならった結果が得られた。また,推定モデルを用いて,嗜好,および,視聴様態の判別を行った時の正判別率は最大で,嗜好は83。3%,視聴様態は75%となった。 As a result, positive preference / high immersive "Positive" and negative preference / high immersive "Horror (C)" are active coping, and unfavorable / highly immersive "Horror (N)" are passive coping, negative. It was possible to classify that stress was not dealt with in "Negative", which has a taste and low immersiveness. Furthermore, the heart rates of ", Positive" and "Negative" were significantly different, and the results were obtained according to the general characteristics of the heart rate response. In addition, when the preference and viewing mode were discriminated using the estimation model, the positive discrimination rate was the highest, with the preference being 83.3% and the viewing mode being 75%.

各被験者毎に興奮−鎮静を推定した結果,実測興奮−鎮静と予測興奮−鎮静の平均誤差は,「Positive」において10〜37%,「Negative」において11〜29%,全被験者間平均は17%となった。さらに,実測興奮−鎮静,および,予測興奮−鎮静は相関係数0。89と強い正の相関が見られた。以上より,血行力学的パラメーター,および,心拍数によって,テレビ映像コンテンツ視聴時の嗜好,視聴様態,および,興奮−鎮静を推定できる可能性が示唆された。今後は,他生理指標や,その他識別器との比較・検討によって更なる精度向上を目指す予定である。 As a result of estimating excitement-sedation for each subject, the average error of measured excitement-sedation and predicted excitement-sedation was 10 to 37% for "Positive", 11 to 29% for "Negative", and the average among all subjects was 17 It became%. Furthermore, measured excitement-sedation and predicted excitement-sedation showed a strong positive correlation with a correlation coefficient of 0.89. From the above, it was suggested that the hemodynamic parameters and heart rate could be used to estimate the preference, viewing mode, and excitement-sedation when watching TV video content. In the future, we plan to further improve accuracy by comparing and examining other physiological indicators and other classifiers.

<参考文献>
(1)西垣 通:「テレビはネットで蘇るか」,月間民放(2001)
(2)藤原功達・斉藤由美子:「世論調査リポートテレビに対する評価と期待-「テレビの役割」調査の結果から-」,NHK 放送研究と調査 6 月号,pp.2-15 (1989)
(3)大野木裕明:「第 9 章女子大学生のテレビ視聴態度および 2,3 の要因:視聴者のパーソナリティ特性,番組内容への関心,テレビ視聴の目的に関する予備的な調査から(番組分析と視聴学習行動の研究:放送教育番組のタクソノミーの開発を目指して)」,研究報告,Vol.18, pp.153-172 (1990)
(4)Y. Takahashi and S. John: “Recommendation Models of TelevisionProgram Genre, Based on Survey and Analysis of Behaviour in WatchingTelevision: Toward Human Content Interface Design (2)”, Bulletin of Japanese SocietyforScience of Design, Vol.46, No.133, pp.71-80 (1999) (in japanese)
高橋 靖・シャクルトンジョン:「テレビ視聴行動の調査分析に基づく番組ジャンル推薦モデル:ヒューマン・コンテンツ・インタフェースデザインに向けて(2)」,デザイン学研究,Vol.46, No.133, pp.71-80(1999)
(5)友宗由美子・原由美子:「「時間快適化装置」としてのテレビ-視聴態度と番組総バラエティー化の関係-」,放送研究と調査,Vol.51, pp.2-17(2001)
(6)S. Nomura, Y. Kurosawa, N. Ogawa, C.M. Althaff Irfan, K. Yajima, S.Handri,T.Yamagishi, K.T. Nakahira, and Y. Fukumura: “Psysiological Evaluationof a student in E-learning Sessions by Hemodynamic Response”, IEEJ Trans. EIS, Vol.131, No.1, pp.146-151 (2011)
野村収作・Irfan C. M. Althaff・山岸隆雄・黒澤儀将・矢島邦昭・中平勝子・小川信之・HANDRI Santoso・福村好美:「血行力学的パラメーターによるeラーニング受講者の生理評価研究」,電学論 C,Vol.131,No.1, pp.146-151 (2011)
(7)澤田幸展:「血行力学的反応;新生理心理学 I 巻 (藤澤清,柿木昇治,山崎勝男編)」,北大路書房,第 10 章,pp.187 (1998)
(8)A. Michimori: “Relationship between the alpha attenuationtest,subjective sleepiness and performance test”, 10th Symposium on HumanInterface, Vol.10, No.1413, pp.233-236 (1992)
(9)M. Terasaki, Y. Kishimoto, and A. Koga: “Construction of a multiple mood scale”, The japanesejournal of psychology, Vol.62, No.6,pp.350-356 (1992) 寺崎正治・岸本陽一・古賀愛人:「多面的感情状態尺度の作成」,心理学研究論文誌,Vol.62, No.6, pp.350-356 (1992)
(10)J.A. Russell: “A circumplex model of affect”, J. Personality and SocialPsychology, Vol.39, pp.1161-1178 (1980)
<References>
(1) Toru Nishigaki: "Will TV Revive on the Internet?", Monthly Commercial Broadcasting (2001)
(2) Isao Fujiwara and Yumiko Saito: "Opinion Poll Report Evaluation and Expectations for Television-From the Results of the" Role of Television "Survey-", NHK Broadcasting Research and Survey June Issue, pp.2-15 (1989)
(3) Hiroaki Ohnogi: "Chapter 9 TV viewing attitudes of female university students and a few factors: From a preliminary survey on viewers' personality characteristics, interest in program content, and the purpose of watching TV (program analysis and viewing) Study of Learning Behavior: Aiming to Develop Taxonomy for Broadcast Education Programs) ”, Research Report, Vol.18, pp.153-172 (1990)
(4) Y. Takahashi and S. John: “Recommendation Models of TelevisionProgram Genre, Based on Survey and Analysis of Behavior in WatchingTelevision: Toward Human Content Interface Design (2)”, Bulletin of Japanese Society for Science of Design, Vol.46, No .133, pp.71-80 (1999) (in japanese)
Yasushi Takahashi and Shakulton John: "Program genre recommendation model based on research and analysis of TV viewing behavior: Toward Human Content Interface Design (2)", Design Studies, Vol.46, No.133, pp.71- 80 (1999)
(5) Yumiko Tomomune and Yumiko Hara: "TV as a" Time Comforter "-Relationship between Viewing Attitude and Total Variety of Programs-", Broadcasting Research and Survey, Vol.51, pp.2-17 (2001)
(6) S. Nomura, Y. Kurosawa, N. Ogawa, CM Althaff Irfan, K. Yajima, S. Handri, T. Yamagishi, KT Nakahira, and Y. Fukumura: “Psysiological Evaluation of a student in E-learning Sessions by Hemodynamic Response ”, IEEJ Trans. EIS, Vol.131, No.1, pp.146-151 (2011)
Osamu Nomura, Irfan CM Althaff, Takao Yamagishi, Yoshimasa Kurosawa, Kuniaki Yajima, Katsuko Nakahira, Nobuyuki Ogawa, HANDRI Santoso, Yoshimi Fukumura: "Physiological evaluation study of e-learning participants by hemodynamic parameters" C, Vol.131, No.1, pp.146-151 (2011)
(7) Yuki Sawada Exhibition: "Hematologic Mechanical Response; New Physiological Psychology Volume I (Kiyoshi Fujisawa, Shoji Kakinoki, Katsuo Yamazaki)", Kitaooji Shobo, Chapter 10, pp.187 (1998)
(8) A. Michimori: “Relationship between the alpha attenuation test, subjective sleepiness and performance test”, 10th Symposium on HumanInterface, Vol.10, No.1413, pp.233-236 (1992)
(9) M. Terasaki, Y. Kishimoto, and A. Koga: “Construction of a multiple mood scale”, The japanese journal of psychology, Vol.62, No.6, pp.350-356 (1992) Masaharu Terasaki and Kishimoto Yoichi and Misato Koga: "Creation of a Multifaceted Emotional State Scale", Journal of Psychology Research, Vol.62, No.6, pp.350-356 (1992)
(10) JA Russell: “A circumplex model of affect”, J. Personality and SocialPsychology, Vol.39, pp.1161-1178 (1980)

本発明のストレス対処様式判定システムは、被験者のストレスを非接触状態で質的に分析することができるので、工場などで作業中の労働者のストレス状態を把握するための手段、自動車を運転中のドライバのストレス状態を把握するための手段、授業中の生徒のストレス状態を把握するための手段、等、幅広い技術分野における利用可能性がある。 Since the stress coping style determination system of the present invention can qualitatively analyze the stress of a subject in a non-contact state, it is a means for grasping the stress state of a worker working in a factory or the like, while driving a car. It can be used in a wide range of technical fields, such as a means for grasping the stress state of a driver in a car, a means for grasping the stress state of a student in class, and the like.

100 ストレス対処様式判定システム
110 生体情報取得装置(生体情報取得部)
120 判定装置(判定部)
121 判定用特徴量記憶部
122 特定部位反応検出部
123 応答パターン判定部
130 学習装置(機械学習部)
131 学習用データ記憶部
132 特徴量抽出部
133 特徴量学習部
134 学習済モデル
P 被検者
IF 顔面画像
S1 判定用特徴量記憶処理(判定用特徴量記憶ステップ)
S2 特定部位反応検出処理(特定部位反応検出ステップ)
S3 応答パターン判定処理(応答パターン判定ステップ)
S11 学習用データ記憶処理(学習用データ記憶ステップ)
S12 特徴量抽出処理(特徴量抽出ステップ)
S13 特徴量学習処理(特徴量学習ステップ)
S21 クラスタリング処理(クラスタリングステップ)
S22 画像抽出処理(画像抽出ステップ)
S23 エッジ抽出処理(エッジ抽出ステップ)
S24 フラクタル解析処理(フラクタル解析ステップ)
100 Stress coping style judgment system 110 Biometric information acquisition device (Biological information acquisition unit)
120 Judgment device (judgment unit)
121 Judgment feature amount storage unit 122 Specific site reaction detection unit 123 Response pattern judgment unit 130 Learning device (machine learning unit)
131 Learning data storage unit 132 Feature amount extraction unit 133 Feature amount learning unit 134 Learned model P Subject IF Facial image S1 Judgment feature amount storage process (judgment feature amount storage step)
S2 Specific site reaction detection process (Specific site reaction detection step)
S3 Response pattern determination process (response pattern determination step)
S11 Learning data storage process (learning data storage step)
S12 Feature extraction process (feature extraction step)
S13 Feature learning process (feature learning step)
S21 Clustering process (clustering step)
S22 Image extraction process (image extraction step)
S23 Edge extraction process (edge extraction step)
S24 Fractal analysis process (fractal analysis step)

Claims (15)

被検者の生体情報を非接触状態で取得する生体情報取得部と、
前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定部と、を有し、
前記応答パターンは、血行力学パラメータにより特定されるストレス対処様式判定システムであって、
前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含み、
前記生体情報は、顔面画像であり、
前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」の三種類のパターンが含まれ、
前記判定部は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している判定用特徴量記憶部を有し、
前記生体情報と前記判定用特徴量記憶部に記憶されている各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれのパターンを示す様式であるか判定し、
前記判定用特徴量記憶部に記憶されている特徴量は、機械学習部により抽出された特徴量であり、
前記機械学習部は、
「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、
前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、
前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とするストレス対処様式判定システム。
The biological information acquisition unit that acquires the biological information of the subject in a non-contact state,
It has a determination unit that determines a stress coping mode of a subject based on the biological information and a response pattern specified in advance.
The response pattern is a stress coping mode determination system specified by hemodynamic parameters .
The hemodynamic parameters include a plurality of parameters of mean blood pressure, heart rate, cardiac output, stroke volume and total peripheral resistance.
The biological information is a facial image and is
The response patterns include three types of patterns, "active coping", "passive coping", and "no coping".
The determination unit stores a spatial feature amount corresponding to "active coping", a spatial feature amount corresponding to "passive coping", and a spatial feature amount corresponding to "no coping". It has a quantity storage unit and
Based on the biological information and each spatial feature amount stored in the determination feature amount storage unit, the stress coping mode is one of "active coping", "passive coping" and "no coping". Determine which pattern the style shows,
The feature amount stored in the determination feature amount storage unit is a feature amount extracted by the machine learning unit.
The machine learning unit
A learning data storage unit that stores a plurality of learning facial images labeled corresponding to "active coping", "passive coping", and "no coping".
A feature amount extraction unit that extracts the spatial feature amount of the face image from the learning face image using a trained model, and a feature amount extraction unit.
Based on the relationship between the extraction result by the feature amount extraction unit and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction unit is increased. A stress coping style determination system characterized by having a feature amount learning unit that changes the network parameters of the trained model as described above.
前記顔面画像は、顔面熱画像または顔面可視画像であることを特徴とする請求項1に記載のストレス対処様式判定システム。 The stress coping style determination system according to claim 1, wherein the facial image is a facial thermal image or a facial visible image. 前記判定部は、前記顔面画像に含まれる顔面の特定部位のストレス応答を観察することにより被験者のストレス対処様式を判定することを特徴とする請求項1又は2に記載のストレス対処様式判定システム。 The stress coping style determination system according to claim 1 or 2, wherein the determination unit determines the stress coping mode of the subject by observing the stress response of a specific portion of the face included in the facial image. 前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項1〜3のいずれか一項に記載のストレス対処様式判定システム。 The stress coping style determination system according to any one of claims 1 to 3, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject. 「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、
被検者の顔面画像と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する判定ステップと、を有し、
前記応答パターンは、血行力学パラメータにより特定され、
「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
前記学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する学習ステップと、を有し、
前記判定用特徴量記憶ステップは、前記特徴量抽出ステップにより抽出した前記空間的特徴量を記憶するステップであることを特徴とする、コンピュータを被検者のストレス対処様式を判定する手段として機能させるプログラム
A judgment feature storage step that stores spatial features corresponding to "active coping", spatial features corresponding to "passive coping", and spatial features corresponding to "no coping", and
Based on the facial image of the subject and each spatial feature memorized by the determination feature storage step, the stress coping styles of the subject are "active coping", "passive coping" and "no coping". It has a determination step for determining which of the following response patterns is exhibited.
The response pattern is identified by hemodynamic parameters and
A learning data storage step that stores multiple learning facial images labeled for each of "active coping", "passive coping", and "no coping".
A feature amount extraction step for extracting the spatial feature amount of the learning facial image using the trained model, and a feature amount extraction step.
Based on the relationship between the extraction result by the feature amount extraction step and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction step is improved. With a learning step, such as changing the network parameters of the trained model,
The determination feature amount storage step is a step for storing the spatial feature amount extracted by the feature amount extraction step, and causes a computer to function as a means for determining a stress coping mode of a subject. Program .
前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項5に記載のプログラムThe program according to claim 5, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject . 生体情報取得部と、判定部と、を有するシステムによるストレス対処様式判定方法であって、
前記生体情報取得部により被検者の生体情報を非接触状態で取得する生体情報取得ステップと、
前記判定部により前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定ステップと、を有し、
前記応答パターンは、血行力学パラメータにより特定され、
前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含み、
前記生体情報は、顔面画像であり、
前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」の三種類のパターンが含まれ、
前記判定ステップには、
「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、
前記生体情報と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれのパターンを示す様式であるか判定する応答パターン判定ステップと、が含まれ、
前記判定用特徴量記憶ステップにより記憶される特徴量は、機械学習部により抽出された特徴量であり、
前記機械学習部は、
「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を実行することを特徴とするストレス対処様式判定方法
It is a stress coping mode determination method by a system having a biological information acquisition unit and a determination unit.
The biological information acquisition step of acquiring the biological information of the subject in a non-contact state by the biological information acquisition unit, and
It has a determination step of determining a stress coping mode of a subject based on the biological information and a response pattern specified in advance by the determination unit.
The response pattern is identified by hemodynamic parameters and
The hemodynamic parameters include a plurality of parameters of mean blood pressure, heart rate, cardiac output, stroke volume and total peripheral resistance.
The biological information is a facial image and is
The response patterns include three types of patterns, "active coping", "passive coping", and "no coping".
In the determination step,
A judgment feature storage step that stores spatial features corresponding to "active coping", spatial features corresponding to "passive coping", and spatial features corresponding to "no coping", and
Based on the biological information and each spatial feature amount memorized by the determination feature amount storage step, the stress coping mode is any of "active coping", "passive coping", and "no coping". A response pattern determination step, which determines whether the format indicates a pattern, is included.
The feature amount memorized by the determination feature amount storage step is a feature amount extracted by the machine learning unit.
The machine learning unit
A learning data storage step that stores multiple learning facial images labeled for each of "active coping", "passive coping", and "no coping".
A feature amount extraction step for extracting the spatial feature amount of the face image from the learning face image using a trained model, and a feature amount extraction step.
Based on the relationship between the extraction result by the feature amount extraction step and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction step is improved. A feature amount learning step for changing the network parameters of the trained model, and a stress coping style determination method, which comprises executing the feature amount learning step .
血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、
前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、
前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とする学習装置
A learning data storage unit that stores a plurality of learning facial images labeled according to a response pattern specified by a hemodynamic parameter, and a learning data storage unit.
A feature amount extraction unit that extracts the spatial feature amount of the subject's face image from the learning face image using the trained model, and a feature amount extraction unit.
Based on the relationship between the extraction result by the feature amount extraction unit and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction unit is improved. A learning device having a feature amount learning unit that changes the network parameters of the trained model as described above .
前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項8に記載の学習装置 The learning device according to claim 8, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject. 血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とする学習方法
A learning data storage step that stores multiple learning facial images labeled according to the response pattern identified by the hemodynamic parameters.
A feature amount extraction step for extracting the spatial feature amount of the subject's face image from the learning face image using the trained model, and a feature amount extraction step.
Based on the relationship between the extraction result by the feature amount extraction step and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction step is improved. A learning method characterized by having a feature amount learning step for changing the network parameters of the trained model as described above .
前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項10に記載の学習方法The learning method according to claim 10, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject . 血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とする、コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させるプログラム
A learning data storage step that stores multiple learning facial images labeled according to the response pattern identified by the hemodynamic parameters.
A feature amount extraction step for extracting the spatial feature amount of the subject's face image from the learning face image using the trained model, and a feature amount extraction step.
Based on the relationship between the extraction result by the feature amount extraction step and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction step is improved. A program that causes a computer to function as a means for learning the spatial features of a facial image of a subject, which comprises a feature learning step for changing the network parameters of the trained model .
前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項12に記載のプログラム The program according to claim 12, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject . 血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を教師データに用いて、被験者の顔面画像の空間的特徴量を機械学習することにより生成される学習済モデルであって、
前記複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
前記学習用顔面画像から被験者の顔面画像の空間的特徴量を前記学習済モデルを用いて抽出する特徴量抽出ステップと、
前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を繰り返すことにより生成されたことを特徴とする学習済モデル。
Learned generated by machine learning the spatial features of a subject's facial image using multiple learning facial images labeled for response patterns identified by hemodynamic parameters as teacher data. A model
A learning data storage step for storing the plurality of learning facial images, and
A feature amount extraction step for extracting the spatial feature amount of the subject's face image from the learning face image using the learned model, and a feature amount extraction step.
Based on the relationship between the extraction result by the feature amount extraction step and the label attached to the learning facial image as the extraction target, the extraction accuracy of the spatial feature amount by the feature amount extraction step is improved. A trained model characterized in that it is generated by repeating the feature quantity learning step of changing the network parameters of the trained model as described above.
前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項14に記載の学習済モデル。」 The trained model according to claim 14, wherein the spatial feature amount is a fractal dimension calculated based on a facial image of a subject. "
JP2020144666A 2019-08-30 2020-08-28 Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program that makes the computer function as a means to judge the stress coping style of the subject, learns the spatial features of the subject's facial image Programs and trained models that act as means Active JP6896925B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/638,944 US12201446B2 (en) 2019-08-30 2020-08-28 Stress coping style determination system, stress coping style determination method, learning device, learning method, program, and learned model
KR1020227010268A KR20220056210A (en) 2019-08-30 2020-08-28 Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program and learning completion model
PCT/JP2020/032763 WO2021040025A1 (en) 2019-08-30 2020-08-28 Stress management mode determination system, stress management mode determination method, learning device, learning method, program, and trained model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019158134 2019-08-30
JP2019158134 2019-08-30

Publications (2)

Publication Number Publication Date
JP2021037287A JP2021037287A (en) 2021-03-11
JP6896925B2 true JP6896925B2 (en) 2021-06-30

Family

ID=74847828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020144666A Active JP6896925B2 (en) 2019-08-30 2020-08-28 Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program that makes the computer function as a means to judge the stress coping style of the subject, learns the spatial features of the subject's facial image Programs and trained models that act as means

Country Status (2)

Country Link
JP (1) JP6896925B2 (en)
CN (1) CN114466618B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114668396B (en) * 2022-02-18 2024-08-13 刘梅颜 Method and automated device for applying, intervening and recording human psychological stress
WO2024204481A1 (en) * 2023-03-29 2024-10-03 日東電工株式会社 Psychological state information acquisition device and robot
CN119361102B (en) * 2024-09-29 2025-07-04 广州医科大学附属妇女儿童医疗中心 Simulation teaching and management system based on radiology department real medical records medical image files

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2868192B2 (en) * 1991-07-30 1999-03-10 学校法人帝京平成大学 Method and apparatus for estimating human psychological change
JP2007068620A (en) * 2005-09-05 2007-03-22 Konica Minolta Holdings Inc Psychological condition measuring apparatus

Also Published As

Publication number Publication date
CN114466618A (en) 2022-05-10
JP2021037287A (en) 2021-03-11
CN114466618B (en) 2024-11-22

Similar Documents

Publication Publication Date Title
Bota et al. A review, current challenges, and future possibilities on emotion recognition using machine learning and physiological signals.
Goulart et al. Emotion analysis in children through facial emissivity of infrared thermal imaging
Greco et al. Advances in electrodermal activity processing with applications for mental health
López-Gil et al. Method for improving EEG based emotion recognition by combining it with synchronized biometric and eye tracking technologies in a non-invasive and low cost way
Selvaraj et al. Classification of emotional states from electrocardiogram signals: a non-linear approach based on hurst
JP5320543B2 (en) Brain function enhancement support device and brain function enhancement support method
Nacke An introduction to physiological player metrics for evaluating games
Navarro-Sune et al. Riemannian geometry applied to detection of respiratory states from EEG signals: the basis for a brain–ventilator interface
Baghdadi et al. Dasps: A database for anxious states based on a psychological stimulation
Valenza et al. Autonomic nervous system dynamics for mood and emotional-state recognition: Significant advances in data acquisition, signal processing and classification
JP5870465B2 (en) Brain function training apparatus and brain function training program
JP6896925B2 (en) Stress coping style judgment system, stress coping style judgment method, learning device, learning method, program that makes the computer function as a means to judge the stress coping style of the subject, learns the spatial features of the subject&#39;s facial image Programs and trained models that act as means
Cheng et al. Enhancing positive emotions through interactive virtual reality experiences: An eeg-based investigation
Hamzah et al. EEG‐Based Emotion Recognition Datasets for Virtual Environments: A Survey
Nia et al. FEAD: Introduction to the fNIRS-EEG affective database-video stimuli
JP7767763B2 (en) Biological information processing device and biological information processing system
Nagasawa et al. Continuous estimation of emotional change using multimodal responses from remotely measured biological information
WO2021040025A1 (en) Stress management mode determination system, stress management mode determination method, learning device, learning method, program, and trained model
Ivonin et al. Automatic recognition of the unconscious reactions from physiological signals
JP5681917B2 (en) Brain function enhancement support device and brain function enhancement support method
Andreeßen Towards real-world applicability of neuroadaptive technologies: investigating subject-independence, task-independence and versatility of passive brain-computer interfaces
Koelstra Affective and Implicit Tagging using Facial Expressions and Electroencephalography.
WO2022209498A1 (en) Biometric information processing device and biometric information processing system
Salim et al. A dataset for emotion recognition for Iraqi autism individuals as a step towards EEG-based therapeutic intervention
Taley et al. Physiological signals for emotion recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200828

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201001

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R150 Certificate of patent or registration of utility model

Ref document number: 6896925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250