[go: up one dir, main page]

JP2020042734A - Visibility evaluation system - Google Patents

Visibility evaluation system Download PDF

Info

Publication number
JP2020042734A
JP2020042734A JP2018171755A JP2018171755A JP2020042734A JP 2020042734 A JP2020042734 A JP 2020042734A JP 2018171755 A JP2018171755 A JP 2018171755A JP 2018171755 A JP2018171755 A JP 2018171755A JP 2020042734 A JP2020042734 A JP 2020042734A
Authority
JP
Japan
Prior art keywords
model
visibility
visual field
posture
evaluation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018171755A
Other languages
Japanese (ja)
Other versions
JP7120572B2 (en
Inventor
和征 恩田
Kazumasa Onda
和征 恩田
堀田 英則
Hidenori Hotta
英則 堀田
和徳 長谷
Kazunori Hase
和徳 長谷
智成 高柳
Tomonari Takayanagi
智成 高柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Original Assignee
Suzuki Motor Corp
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp, Tokyo Metropolitan Public University Corp filed Critical Suzuki Motor Corp
Priority to JP2018171755A priority Critical patent/JP7120572B2/en
Publication of JP2020042734A publication Critical patent/JP2020042734A/en
Application granted granted Critical
Publication of JP7120572B2 publication Critical patent/JP7120572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】設計要素に対する確認動作を含めた総合的な視認性の定量的評価を行う視認性評価システムを提供する。【解決手段】視認性評価システムは、オブジェクトおよびその視認目標点20が定義された仮想3D空間において前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデル10と、データベース8に格納された生体力学モデルの視線における視野画像において視認目標点に対する視認度15を算出するための視野判断モデル50と、生体力学モデルと視野判断モデルを連成させる統括制御部11とを備える。統括制御部は、生体力学モデルに摂動を与え、その姿勢にて視認目標点に対する視認度15を算出するとともに、摂動に伴う生体力学モデルの負担度16を算出し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作を実行し、負担度の積算値と視認度の最終値から易視認性を算出する。【選択図】図1PROBLEM TO BE SOLVED: To provide a visibility evaluation system for quantitatively evaluating comprehensive visibility including a confirmation operation for a design element. A visibility evaluation system is stored in a biomechanics model 10 and a database 8 for simulating a confirmation operation with respect to the visual target point in a virtual 3D space in which an object and its visual target point 20 are defined. It includes a visual field determination model 50 for calculating the visibility 15 with respect to the visual field target point in the visual field image in the line of sight of the biomechanics model, and a general control unit 11 for coupling the biomechanics model and the visual field determination model. The integrated control unit gives a perturbation to the biomechanics model, calculates the visibility 15 with respect to the visual recognition target point in that posture, and calculates the burden 16 of the biomechanics model due to the perturbation, and the minimum burden and the maximum visibility. The operation of generating the posture is executed according to the behavior that becomes, and the easy visibility is calculated from the integrated value of the burden degree and the final value of the visibility degree. [Selection diagram] Fig. 1

Description

本発明は、生体力学モデルを利用した3DCADの視認性評価システムに関する。   The present invention relates to a 3D CAD visibility evaluation system using a biomechanical model.

従来、3DCADによる製品設計において、視認性など視覚的効果に関する評価と、操作性や取り扱い易さなど実用上の効果に関する評価は、別々に行われてきた。例えば、特許文献1には、車両のコックピットの設計データを3DCGにより映像化して使用感や視認性の評価を行う設計支援装置が記載されている。しかし、このような評価方法は、試験者の主観による影響を排除できず、定量的な評価を得ることは困難である。   Conventionally, in 3D CAD product design, the evaluation of visual effects such as visibility and the evaluation of practical effects such as operability and ease of handling have been performed separately. For example, Patent Literature 1 discloses a design support apparatus that visualizes design data of a cockpit of a vehicle by 3DCG and evaluates usability and visibility. However, such an evaluation method cannot eliminate the influence of the subjectivity of the tester, and it is difficult to obtain a quantitative evaluation.

一方、特許文献2には、車両のドア部周辺の設計諸元値を決定するために、人体モデルを用いて仮想車両に対する乗降動作のシミュレーションを行い、乗降性を評価する設計支援システムが記載されている。このシステムは、乗降性に関する定量的評価を指向しているものの、視認性や視覚的効果についての記載や示唆は無い。   On the other hand, Patent Literature 2 discloses a design support system that simulates an entry / exit operation with respect to a virtual vehicle using a human body model and evaluates the entry / exit performance in order to determine design specification values around a door portion of the vehicle. ing. Although this system is aimed at quantitative evaluation of getting on and off, it does not describe or suggest visibility or visual effect.

特開2013−189055号公報JP 2013-189055 A 特開2013−246663号公報JP 2013-246663 A

製品設計において、視認性など視覚的効果が、操作性やアクセスし易さなど実用上の効果と関連する場合がある。例えば、車両のコックピットの設計では、空間的制約から全ての操作部や表示部を視野内に配置できない場合、操作頻度や視認頻度が高い要素や走行中に視認する要請がある要素が視野内に配置され、それ以外の要素は、視野外または他の部材で隠れる陰面などに配置される。このような要素は、乗員が顔の向きを変えたり頭部や上体を傾けたりして行う確認動作を伴って視認され、操作される。したがって、そのような確認動作の容易性を含めて視認性が定量的に評価されることが好ましい。   In product design, visual effects such as visibility may be related to practical effects such as operability and accessibility. For example, in the design of the cockpit of a vehicle, if all the operation units and display units cannot be arranged in the field of view due to space constraints, elements with a high operation frequency or viewing frequency or elements that require visual recognition while driving are in the field of view. The other elements are arranged outside the field of view or on a hidden surface hidden by other members. Such an element is visually recognized and operated with a confirmation operation performed by the occupant by changing the face direction or tilting the head or the upper body. Therefore, it is preferable that the visibility is quantitatively evaluated including the ease of such a checking operation.

本発明は、上記のような実状に鑑みてなされたものであって、その目的は、3DCADによる製品設計において、設計要素に対する確認動作を含めた視認性の定量的評価を行うための視認性評価システムを提供することにある。   SUMMARY OF THE INVENTION The present invention has been made in view of the above situation, and an object of the present invention is to perform visibility evaluation for performing quantitative evaluation of visibility including a confirmation operation on a design element in product design by 3D CAD. It is to provide a system.

上記課題を解決するために、本発明は、
3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトおよびその視認目標点が定義された仮想3D空間において前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルの視線における視野画像において前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルに摂動を与え、その姿勢にて前記視認目標点に対する視認度を算出するとともに、前記摂動に伴う前記生体力学モデルの負担度を算出し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作を実行することにより、前記生体力学モデルと前記視野判断モデルを連成させる統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視覚性評価システムにある。
In order to solve the above problems, the present invention provides:
A visibility evaluation system for an object by 3D CAD,
A biomechanical model for simulating a confirmation operation on the visual target in the virtual 3D space in which the object and the visual target are defined;
A visual field determination model for calculating the visibility of the visual target in the visual field image in the line of sight of the biomechanical model,
A behavior in which a perturbation is given to the biomechanical model, the degree of visibility of the biomechanical model associated with the perturbation is calculated in the posture, and the degree of burden of the biomechanical model is calculated in accordance with the perturbation. An overall control unit that couples the biomechanical model and the visual field determination model by performing an operation of generating a posture at
And a visibility evaluation system configured to calculate easy visibility from the integrated value of the burden and the final value of the visibility.

本発明に係る視認性評価システムは、上記のように、仮想3D空間に定義される視認目標点に対する確認動作のシミュレーションを生体力学モデルによって行い、その生体力学モデルの視線における視野画像にて視認目標点に対する視認度を算出するとともに、確認動作に要する生体力学モデルの負担度を算出し、負担度の積算値と視認度の最終値から易視認性を評価することにより、設計要素に対する確認動作を含めた視認性の定量的評価を行うことができる。   As described above, the visibility evaluation system according to the present invention simulates a confirmation operation with respect to a visual target point defined in the virtual 3D space using a biomechanical model, and uses a visual field image in the line of sight of the biomechanical model to perform visual recognition. Along with calculating the visibility for the points, the burden of the biomechanical model required for the confirmation operation is calculated, and the visibility is evaluated from the integrated value of the burden and the final value of the visibility. Quantitative evaluation of visibility including the above can be performed.

しかも、生体力学モデルによる確認動作のシミュレーションは、生体力学モデルに摂動を与え、その姿勢にて視認目標点に対する視認度を算出するとともに、摂動に伴う生体力学モデルの負担度を算出し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作により実行されるので、視野判断モデルと生体力学モデルとの連成によって確認動作が自律的にシミュレートされ、信頼性の高い定量的評価を行うことができる。   Moreover, in the simulation of the confirmation operation using the biomechanical model, a perturbation is given to the biomechanical model, the visibility with respect to the visual target point is calculated in the posture, and the burden of the biomechanical model accompanying the perturbation is calculated. Is performed by an operation that generates a posture with a degree of visibility and maximum visibility, so that the confirmation operation is simulated autonomously by coupling the visual field judgment model and the biomechanical model, and reliable quantitative evaluation It can be performed.

本発明の好適な態様において、前記生体力学モデルは、人体の骨格、関節、および骨格筋をモデリングした筋骨格モデルと、前記筋骨格モデルにおける頭部運動に連成して眼球姿勢を決定する眼球運動モデルとを含み、前記眼球姿勢によって前記視線が与えられるように構成されているので、身体動作に加えて眼球運動も含めた確認動作のシミュレーション、および、負担度の評価が行える利点がある。   In a preferred aspect of the present invention, the biomechanical model includes a musculoskeletal model that models a human skeleton, joints, and skeletal muscles, and an eyeball that determines an eyeball posture in conjunction with a head movement in the musculoskeletal model. Since it is configured to include the motion model and to give the line of sight according to the eye posture, there is an advantage that the simulation of the confirmation operation including the eye movement in addition to the physical movement and the evaluation of the burden can be performed.

本発明の好適な態様において、前記視野判断モデルは、仮想3D空間に前記視認目標点を放射状に拡大した透明な立体であって、前記視認目標点からの距離に応じて特定ピクセル情報値のみを減少または漸減させたグラデーション立体を定義し、前記視認度として、前記視野画像における前記特定ピクセル情報値の合計を算出するように構成されているので、視認度を数値化して定量的に評価できる利点がある。   In a preferred aspect of the present invention, the visual field determination model is a transparent solid body in which the viewing target point is radially enlarged in a virtual 3D space, and only a specific pixel information value is determined according to a distance from the viewing target point. Since the reduced or gradually reduced gradation solid is defined and the total visibility of the specific pixel information values in the visual field image is calculated as the visibility, an advantage that the visibility can be quantified and quantitatively evaluated. There is.

特に、初期姿勢において直視できない位置にある視認目標点に対しても、生体力学モデルの運動指令生成に、視認可能な姿勢に近づきつつある状態を含めた視認度を数値化してフィードバックでき、視野判断モデルと生体力学モデルとの的確な連成が可能となる。   In particular, even for a visual target point at a position that cannot be directly seen in the initial posture, the visibility including the state approaching the visible posture can be quantified and fed back to the motion command generation of the biomechanical model, and the visual field judgment An accurate coupling between the model and the biomechanical model becomes possible.

本発明実施形態に係る視認性評価システムを示すブロック図である。It is a block diagram showing the visibility evaluation system concerning the embodiment of the present invention. 本発明実施形態に係る視認性評価システムによるシミュレーションを示す模式的な側面図である。It is a typical side view showing the simulation by the visibility evaluation system concerning the embodiment of the present invention. 本発明実施形態に係る視認性評価システムによるシミュレーションを示す模式的な平面図である。It is a schematic plan view showing a simulation by a visibility evaluation system according to an embodiment of the present invention. (a)は筋骨格モデルを示す概略図であり、(b)は筋骨格モデルの着座状態における接触点および接触平面を示す図である。(A) is a schematic diagram showing a musculoskeletal model, and (b) is a diagram showing a contact point and a contact plane in a sitting state of the musculoskeletal model. 本発明実施形態に係る視認性評価システムで使用するデータ構成を示すER図である。FIG. 3 is an ER diagram illustrating a data configuration used in the visibility evaluation system according to the embodiment of the present invention. 眼球運動モデルを示すブロック図である。It is a block diagram showing an eye movement model. 前庭動眼反射モデルを示すブロック線図である。It is a block diagram which shows a vestibular oculomotor reflection model. 追跡眼球運動モデルを示すブロック線図である。It is a block diagram which shows a tracking eyeball movement model. サッカードモデルを示すブロック線図である。It is a block diagram which shows a saccade model. サッカードモデルにおける有効眼球運動範囲を示す図である。It is a figure showing an effective eyeball movement range in a saccade model. 眼球運動モデルと筋骨格モデルの統合を示すブロック線図である。It is a block diagram which shows integration of an eyeball movement model and a musculoskeletal model. 本発明実施形態に係る視認性評価システムの処理を示すフローチャートである。It is a flowchart which shows the process of the visibility evaluation system which concerns on embodiment of this invention. 本発明実施形態に係る視認性評価システムの処理を生体力学モデルと視野判断モデルに分けて記載したフローチャートである。It is the flowchart which divided the process of the visibility evaluation system which concerns on embodiment of this invention into a biomechanics model and a visual field judgment model.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

1.評価システムの概要
図1は、本発明実施形態に係る視認性評価システム1を示すブロック図である。本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、生体力学モデル3を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものである。
1. Overview of Evaluation System FIG. 1 is a block diagram showing a visibility evaluation system 1 according to an embodiment of the present invention. The evaluation system 1 of the present embodiment uses 3D CAD data of an instrument panel disposed in front of a cockpit of a vehicle as evaluation target data 2 and uses a biomechanical model 3 as shown in FIGS. 2 and 3. The simulation of the confirmation operation for visually recognizing the visual recognition target point 20 is performed, and the visibility including its easiness is evaluated.

評価システム1は、生体力学モデル10と視野判断モデル50を含み、それぞれの動作のためのプログラムも別に存在する。それぞれのプログラムおよびデータ、各プログラムを統括的に作動させるオペレーションプログラムは、不図示のコンピュータの外部記憶装置などに格納されており、メインメモリ(RAM)に読み込まれ、CPUにより演算処理が実行されることで評価システムとして機能するように構成されている。   The evaluation system 1 includes a biomechanical model 10 and a visual field judgment model 50, and a program for each operation exists separately. Each program, data, and an operation program for operating the programs collectively are stored in an external storage device or the like of a computer (not shown), are read into a main memory (RAM), and arithmetic processing is executed by the CPU. Thus, it is configured to function as an evaluation system.

生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、これらを統合することで、視野判断を行うための身体運動および眼球運動を生成するとともに、それらに要する負担度16を算出し、各運動の結果として得られる眼球5の姿勢データを、視野判断モデル50におけるカメラ55に反映することで、視認目標点20に対する視認度15を算出し、最終的に評価部17において、負担度16と視認度15に基づいて、確認動作の容易性を含めた見やすさ(易視認性)を評価する。   The biomechanical model 10 is composed of a musculoskeletal model 3 and an eyeball movement model 4. By integrating these, a body movement and an eyeball movement for performing visual field judgment are generated, and a burden 16 Is calculated, and the attitude data of the eyeball 5 obtained as a result of each exercise is reflected on the camera 55 in the visual field judgment model 50 to calculate the visibility 15 with respect to the viewing target point 20. Based on the burden 16 and the visibility 15, the visibility (easy visibility) including the ease of the checking operation is evaluated.

また、視野判断モデル50の判断処理部51で算出される視認度15は、生体力学モデル10の統括制御部11にフィードバックされ、生体力学モデル10に確認動作をもたらす運動規範ポテンシャル14の一部となる。このように、生体力学モデル10と視野判断モデル50は、独立して動作しながら、相互間でデータを共有または授受することで連成し、生体力学モデル10における負担度16の最小化と、視野判断モデル50における視認度15の最大化を同時に達成するシミュレーションを行えるようになっている。   The visibility 15 calculated by the determination processing unit 51 of the visual field determination model 50 is fed back to the general control unit 11 of the biomechanical model 10 and a part of the exercise reference potential 14 that causes the biomechanical model 10 to perform a confirmation operation. Become. As described above, the biomechanical model 10 and the visual field judgment model 50 operate independently of each other and are coupled by sharing or exchanging data with each other, minimizing the burden 16 in the biomechanical model 10, A simulation for simultaneously maximizing the visibility 15 in the visual field judgment model 50 can be performed.

すなわち、2つのモデルは、生体力学モデル10における負担度16の軽減のための最適動作が視野判断モデル50における視認度15の向上をもたらし、視野判断モデル50における視認度15の向上が生体力学モデル10における負担度16の軽減のための最適動作をもたらすという連成関係にある。2つのモデル間で、データを共有または授受する形態は、図5に示すようなデータベース8へのアクセスによって行われるが、それ以外に、データ通信やファイル操作によるデータファイルの受け渡しなど、任意の形態で実施可能である。   That is, in the two models, the optimal operation for reducing the burden 16 in the biomechanical model 10 leads to the improvement of the visibility 15 in the visual field judgment model 50, and the improvement in the visibility 15 in the visual field judgment model 50 is There is a coupled relationship of providing an optimum operation for reducing the burden 16 on the device 10. The mode of sharing or exchanging data between the two models is performed by accessing the database 8 as shown in FIG. 5, but other than that, an arbitrary mode such as data communication or transfer of a data file by file operation is used. It can be implemented in.

データベース8は、個々のシミュレーション(試行)における条件や結果などを格納するシミュレーションデータ80、個々のシミュレーション(試行)における各挙動プロセスのデータを格納する挙動データ81、および、各挙動プロセスを取得するために仮想的に実施された摂動プロセスのデータを格納する摂動データ82を含み、各データテーブルの主キー(PK)と対応するデータテーブルの外部キー(FK)との間に1対多のリレーションが設定されたリレーショナルデータベースとして構成されている。   The database 8 is for acquiring simulation data 80 for storing conditions, results, and the like in each simulation (trial), behavior data 81 for storing data of each behavior process in each simulation (trial), and acquiring each behavior process. Includes a perturbation data 82 for storing data of a perturbation process virtually performed, and a one-to-many relation between a primary key (PK) of each data table and a foreign key (FK) of a corresponding data table. It is configured as a set relational database.

シミュレーションデータ80には、各シミュレーション(試行)の入力条件などが格納される。例えば、図示例では、シミュレーションを実施するコクピットのCADデータに対応する支持構造情報(シート6における第1支持点(ヒップポイント;HP)、ハンドル7における第2支持点(左右の把持点;座標(x,y,z))、シミュレートする人物の体格設定情報(身長,体重)、評価対象CADデータ(名称、識別コード)、視認目標点座標(座標(x,y,z))などが入力され、シミュレーションプロセスの結果としての易視認性評価やレンダリング情報などが格納される。   The simulation data 80 stores input conditions for each simulation (trial). For example, in the illustrated example, the support structure information (first support point (hip point; HP) on the seat 6) and the second support point (left and right grip points; coordinate ( (x, y, z)), physique setting information (height, weight) of the person to be simulated, CAD data (name, identification code) to be evaluated, coordinates of target recognition point (coordinates (x, y, z)), etc. are input. Then, the visibility evaluation and the rendering information as a result of the simulation process are stored.

なお、図示を省略するが、基本的に、支持構造情報(コクピットCADデータ)、体格設定情報、評価対象CADデータなどの基礎情報やレンダリングデータは、それぞれ、別のデータテーブルに登録され、識別コード(外部キー)に設定されるリレーションによって参照されるようにする。また、データファイルの受け渡しによりシミュレーションを実施する場合には、シミュレーションデータ80、挙動データ81、および、摂動データ82に相当する適宜形式のデータファイルを構成し、データの追加更新を行う。各挙動プロセスにおける挙動データ81が取得された後に、それに要した摂動データ82を保持しない設定とすることもできる。   Although not shown, basically, basic information such as support structure information (cockpit CAD data), physique setting information, CAD data to be evaluated, and rendering data are registered in separate data tables, respectively, and identification codes are stored. (Foreign key) to be referenced by the relation set. When the simulation is performed by transferring the data file, a data file of an appropriate format corresponding to the simulation data 80, the behavior data 81, and the perturbation data 82 is formed, and the data is additionally updated. After the behavior data 81 in each behavior process is acquired, the setting may be such that the perturbation data 82 required for the behavior data 81 is not retained.

挙動データ81と摂動データ82について、後に詳述するように、生体力学モデル10における筋骨格モデル3および眼球運動モデル4の動作は、最適な挙動を決定するために状態変数uの数だけ仮想的に動作させ負担度Bを算出する摂動プロセスと、その結果として得られた最小負担度(Bmin)かつ最大視認度(Rmax)をもたらす条件で単位時間だけ実際に動作させる挙動プロセスを繰り返すことにより実施され、視野判断モデル50は、それぞれの摂動プロセスごとに視認度Rを算出する。 As will be described in detail later, the behavior of the musculoskeletal model 3 and the eye movement model 4 in the biomechanical model 10 for the behavior data 81 and the perturbation data 82 are virtually equivalent to the number of state variables u in order to determine the optimal behavior. And the behavioral process of actually operating for a unit time under the conditions that result in the minimum burden (B min ) and the maximum visibility (R max ). The visual field determination model 50 calculates the visibility R for each perturbation process.

したがって、先ず、挙動データ81における挙動No(ID)が自動採番などにより割当てられ、次いで、当該挙動Noに関して、摂動データ82に状態変数U分の摂動Noが割当てられ、それぞれの状態変数U毎に筋骨格モデル3および眼球運動モデル4の摂動が実施される。各摂動の結果として得られた骨格リンク姿勢、眼球姿勢、負担度Bが摂動データ82に格納され、眼球姿勢が視野判断モデル50のカメラ55に反映され、その視野画像から算出された視認度Rが摂動データ82に格納される。   Therefore, first, the behavior No. (ID) in the behavior data 81 is assigned by automatic numbering or the like, and then, with respect to the behavior No., a perturbation No for the state variable U is assigned to the perturbation data 82, and for each state variable U Then, the musculoskeletal model 3 and the eye movement model 4 are perturbed. The skeleton link posture, the eyeball posture, and the burden B obtained as a result of each perturbation are stored in the perturbation data 82, and the eyeball posture is reflected on the camera 55 of the visual field determination model 50, and the visibility R calculated from the visual field image is obtained. Is stored in the perturbation data 82.

次いで、最小負担度(Bmin)かつ最大視認度(Rmax)をもたらす条件が挙動データ81に格納され、それに従って挙動プロセスが実施され、骨格リンク姿勢および眼球姿勢がキーフレーム情報として登録される。これらのキーフレーム情報が集積されることで確認動作に対応する視野画像の3DCG動画(および任意に設定される視点から見た3DCG動画)を生成可能となる。また、挙動プロセスの実施とともに、それ以前の挙動プロセスで取得された最小負担度(Bmin)、最大視認度(Rmax)それぞれの積算値が更新され、挙動データ81に格納される。これらの積算値がシミュレーションにおける最終的な易視認性評価の基礎情報となる。 Next, the conditions that result in the minimum burden (B min ) and the maximum visibility (R max ) are stored in the behavior data 81, the behavior process is performed in accordance therewith, and the skeleton link posture and the eyeball posture are registered as key frame information. . By accumulating such key frame information, it is possible to generate a 3D CG moving image (and a 3D CG moving image viewed from an arbitrarily set viewpoint) of the visual field image corresponding to the confirmation operation. Further, along with the execution of the behavior process, the integrated values of the minimum burden (B min ) and the maximum visibility (R max ) acquired in the previous behavior process are updated and stored in the behavior data 81. These integrated values serve as basic information for the final easy-visibility evaluation in the simulation.

2.視野判断モデルの詳細
視野判断モデル50は、3D座標系(仮想データ空間)に、視認目標点20を有する評価対象データ2、生体力学モデル(筋骨格モデル3、眼球運動モデル4)に対応する人体モデル53、および、カメラ55を定義し、生体力学モデルで生成される身体運動および眼球運動(身体姿勢および眼球姿勢)を、人体モデル53およびカメラ55に反映し、その状態における視認目標点20の視認度を取得するものである。
2. Details of visual field judgment model The visual field judgment model 50 is a 3D coordinate system (virtual data space), a human body corresponding to the evaluation object data 2 having the visual target 20 and a biomechanical model (musculoskeletal model 3, eyeball movement model 4). The model 53 and the camera 55 are defined, and the body motion and the eyeball movement (body posture and eyeball posture) generated by the biomechanical model are reflected on the human body model 53 and the camera 55, and the visual target point 20 in that state is reflected. This is for acquiring visibility.

このカメラ55は、3D座標系に設定される視点(ヒトの眼に相当)であり、カメラ画像がヒト(人体モデル53)の視界となる。人体モデル53の姿勢を時々刻々とキーフレームに登録することによって、最終的に動画を作成することができる。外部視点を設定すれば、視覚的に身体挙動を観察することもできる。   This camera 55 is a viewpoint (corresponding to a human eye) set in a 3D coordinate system, and a camera image is a field of view of a human (human body model 53). By registering the posture of the human body model 53 in a key frame every moment, a moving image can be finally created. If you set an external viewpoint, you can also visually observe your body behavior.

以下、視野判断モデル50による視認度算出プロセスについて説明する。なお、プロセスは全てプログラムによって自動で行われる。3Dデータ空間での画像処理を基本としているため、汎用の3DCGアプリケーションを用いることもできる。   Hereinafter, the visibility calculation process by the visual field determination model 50 will be described. Note that all the processes are automatically performed by a program. Since it is based on image processing in the 3D data space, a general-purpose 3DCG application can be used.

先述したように、本実施形態の評価システム1は、車両のコクピット前部に配設されるインストルメントパネルの3DCADデータを評価対象データ2とし、図2および図3に示すように、ドライバに相当する生体力学モデル3を利用して視認目標点20を視認するための確認動作のシミュレーションを行い、その容易性を含めた視認性を評価するものであり、視野判断モデル50は、確認動作(摂動および挙動)の各時点における視認目標点20に対する視認度を算出する。   As described above, the evaluation system 1 of the present embodiment uses 3D CAD data of an instrument panel provided in front of a cockpit of a vehicle as evaluation target data 2 and corresponds to a driver as shown in FIGS. 2 and 3. A simulation of a confirmation operation for visually recognizing the visual recognition target point 20 is performed using the biomechanical model 3 to evaluate the visibility including its easiness, and the visual field judgment model 50 performs the confirmation operation (perturbation). And behavior) with respect to the viewing target point 20 at each time point.

図示例では、視認目標点20として、インストルメントパネル2の右側下部にあるスイッチを想定している。このスイッチは、ハンドル7で隠れる位置にあり、シート6に着座したドライバ(3)の視点(5)から直接視認することが困難であり、図3に示すように、右横方向への上体移動と頭部回転を伴う確認動作によって徐々に視認可能となる。   In the illustrated example, a switch located on the lower right side of the instrument panel 2 is assumed as the visual recognition target point 20. This switch is located at a position hidden by the handlebar 7 and is difficult to directly recognize from the viewpoint (5) of the driver (3) sitting on the seat 6, and as shown in FIG. The confirmation operation involving the movement and the rotation of the head gradually makes it visually recognizable.

そこで、このように初期位置において直接視認できないか視認し難い視認目標点20に対する視認度を求めるために、視認目標点20を放射状に拡大した立体としてグラデーション球21を定義する。これにより、少なくとも部分的にグラデーション球21が視野画像に入ることで視認度を算出可能となる。   Therefore, in order to obtain the visibility of the viewing target point 20 that is not directly visible at the initial position or is difficult to visually recognize, the gradation sphere 21 is defined as a solid body obtained by radially expanding the viewing target point 20. This makes it possible to calculate the visibility by at least partially entering the gradation sphere 21 into the visual field image.

さらに、グラデーション球21の中心部、すなわち視認目標点20の近傍と周辺部とで視認度の重み付けを行うために、グラデーション球21の中心からの距離に応じて特定のピクセル情報のみを漸減させる。本実施形態では、赤色の強さ(輝度)を示すR値を特定のピクセル情報としており、グラデーション球21は、中心側では赤色が濃くなり、周辺側では赤色が薄くなるような、径方向のグラデーションを有している。   Furthermore, in order to weight the visibility at the center of the gradation sphere 21, that is, in the vicinity of the viewing target point 20 and at the periphery, only specific pixel information is gradually reduced according to the distance from the center of the gradation sphere 21. In the present embodiment, the R value indicating the intensity (luminance) of red is used as specific pixel information, and the gradation sphere 21 has a radial direction in which red becomes darker on the center side and red becomes lighter on the peripheral side. Has gradation.

視野判断モデル50で使用するピクセル情報は、赤(R)、緑(G)、青(B)の三原色に透過度のアルファチャンネル(A)を加えた「RGBA」カラーモデルをベースとしている。RBGAは、それぞれ0〜1.0の数値であり、[R,B,G,A]で表す。視認目標点20に設置したグラデーション球21は、中心のR値=1.0(最大)〜表面のR値=0(最小)の間でR値が漸減しており、G値およびB値は0、全体が透明な球体をベースとするためA値は1.0であり、したがって、グラデーション球21のRGBAは、
[R,G,B,A]=[0〜1.0,0,0,1.0]
の範囲で表されることになる。
The pixel information used in the visual field determination model 50 is based on an “RGBA” color model in which an alpha channel (A) of transparency is added to three primary colors of red (R), green (G), and blue (B). RBGA is a numerical value from 0 to 1.0, and is represented by [R, B, G, A]. In the gradation sphere 21 installed at the viewing target point 20, the R value gradually decreases between the center R value = 1.0 (maximum) and the surface R value = 0 (minimum), and the G value and the B value are 0, the A value is 1.0 because the whole is based on a transparent sphere, so the RGBA of the gradation sphere 21 is
[R, G, B, A] = [0 to 1.0, 0, 0, 1.0]
Will be expressed in the range.

視野判断モデル50における視認度算出に際しては、グラデーション球21以外のソリッド(評価対象データ2、ハンドル7、シート6、人物モデル53など)は全て黒色かつ不透明(光源を反射しない、[R,G,B,A]=[0,0,0,0])とすることで、カメラ55の視野画像には、黒色のソリッド(ハンドル7など)で部分的に隠れたグラデーション球21のみが見える状態となっている。   When calculating the visibility in the visual field judgment model 50, all solids (evaluation data 2, the handle 7, the sheet 6, the human model 53, etc.) other than the gradation sphere 21 are black and opaque (do not reflect the light source, [R, G, B, A] = [0, 0, 0, 0]), the view image of the camera 55 is in a state where only the gradation sphere 21 partially hidden by a black solid (such as the handle 7) is visible. Has become.

この状態において、カメラ55の視野画像の全ピクセルのR値の合計をとることによって、赤色のグラデーション球21がどの程度見えているかを数値化することができ、それに基づいて視認目標点20の視認度を判断することができる。   In this state, by taking the sum of the R values of all the pixels of the image of the field of view of the camera 55, it is possible to quantify how much the red gradation sphere 21 can be seen, and to visually recognize the viewing target point 20 based on that. You can judge the degree.

この視認度(R値合計)は、グラデーション球21を用いているため、視認目標点20が直接見えていない場合まで拡張して数値化でき、直接的に見えない状態から見える状態に近づいている状況を視認度の向上として取得できるので、確認動作を含めた見やすさ(易視認性)の評価に最適であるとともに、後に詳述するように、生体力学モデル10にフィードバックされ、生体力学モデル3の運動(確認動作)を方向付けする運動規範ポテンシャル14の一部となる点でも有意義である。   Since the visibility (total R value) uses the gradation sphere 21, it can be extended and quantified to the case where the viewing target point 20 is not directly visible, and is approaching the state where it is not directly visible but visible. Since the situation can be acquired as an improvement in the visibility, it is optimal for evaluation of the visibility (easy visibility) including the confirmation operation, and is fed back to the biomechanical model 10 as will be described later in detail. It is also significant in that it becomes a part of the exercise reference potential 14 that directs the movement (confirmation operation) of the movement.

なお、視野判断モデル50で使用するグラデーション球21の特定ピクセル情報としては、赤色以外の緑色や青色の輝度を用いることもでき、さらに、輝度以外の情報を用いることもできる。例えば、透明なグラデーション球の内部に中心からの距離に応じた密度で赤色のドットを定義してR値の合計をとることもできる。   Note that as specific pixel information of the gradation sphere 21 used in the visual field determination model 50, luminance of green or blue other than red can be used, and information other than luminance can also be used. For example, red dots may be defined inside the transparent gradation sphere at a density corresponding to the distance from the center, and the R values may be summed.

3.生体力学モデルの詳細
生体力学モデル10は、筋骨格モデル3と眼球運動モデル4から構成されており、基本的に筋骨格モデル3において身体運動が生成され、身体運動に連成して眼球運動が惹起される。そこで、先ず、筋骨格モデル3において視認目標点20の確認動作のための身体運動を生成する流れを説明する。
3. Details of Biomechanical Model The biomechanical model 10 includes a musculoskeletal model 3 and an eye movement model 4. Basically, a body movement is generated in the musculoskeletal model 3, and the eye movement is coupled with the body movement. Be evoked. Therefore, first, a flow of generating the body motion for the operation of confirming the visual recognition target point 20 in the musculoskeletal model 3 will be described.

3.1 運動代表点の定義
筋骨格モデル3は、様々な身体運動を再現するうえで生体力学的に妥当であり、かつ、簡便で計算コストが低く抑えられていることが好ましい。そこで、身体各部位に運動代表点を設定し、各運動代表点の運動軌道を定義できるようにしている。例えば、視認目標点20の確認動作のための身体運動であることから、頭部31の眼球座標(左右の眼球5の中間座標または頭部31の中心座標でもよい)を運動代表点として定義する。
3.1 Definition of Motion Representative Point It is preferable that the musculoskeletal model 3 is biomechanically valid in reproducing various body motions, is simple, and has a low calculation cost. Therefore, a motion representative point is set for each part of the body so that the motion trajectory of each motion representative point can be defined. For example, since the movement is a body movement for the confirmation operation of the viewing target point 20, the eyeball coordinates of the head 31 (the middle coordinates of the left and right eyes 5 or the center coordinates of the head 31) are defined as the movement representative points. .

運動代表点の3次元位置は空間座標系によって記述され、身体運動は、運動代表点の初期位置から目標(終端)位置への移動として定義される。この座標位置は、他の運動代表点を基準とした相対的な座標値として定義することもできる。例えば、図3に示すように、頭部31の中心座標を運動代表点とした場合、この点の移動として確認動作を定義することができ、この運動代表点を基準に眼球座表を定義することもできる。   The three-dimensional position of the motion representative point is described by a spatial coordinate system, and the body motion is defined as a movement from the initial position of the motion representative point to the target (end) position. This coordinate position can also be defined as a relative coordinate value based on another motion representative point. For example, as shown in FIG. 3, when the center coordinate of the head 31 is set as the movement representative point, the confirmation operation can be defined as the movement of this point, and the eyeball table is defined based on the movement representative point. You can also.

3.2 逆モデルベースの運動指令生成
身体運動において、理想的な軌道が与えられた場合、この運動を実現するための運動指令を、身体ダイナミクスの逆モデルに相当するモジュールによって求める計算理論が提案されている(Wang, et al., 2001)。本実施形態においても、身体ダイナミクスの逆モデルを考慮することで運動指令(関節駆動モーメント)を生成するようにしている。
3.2 Inverse model-based motion command generation In the case of an ideal trajectory given in body motion, a calculation theory is proposed in which a motion command for realizing this motion is obtained by a module corresponding to an inverse model of body dynamics. (Wang, et al., 2001). Also in the present embodiment, a motion command (joint driving moment) is generated by considering an inverse model of the body dynamics.

脳の計算理論モデルの研究では、身体のダイナミクスのモデル自体をどのように獲得するかという点についても議論される場合があるが、ここでは複雑化を避けるために、身体のダイナミクスを計算し得るモジュールは既に脳内に存在しているものとして、身体力学モデルの逆動力学計算ルーチンを利用する。関節角度などの身体の運動(関節)変位をqとすると身体力学系の逆モデルは次式(3.1)のように与えられる。
ここで、Mは慣性行列、h()はコリオリ力、遠心力、外力の影響を表わすベクトル、fextは身体に作用する外力、nは筋による関節駆動モーメントである。
In the study of computational theory models of the brain, it may be debated how to obtain the model of the body dynamics itself, but here we can calculate the body dynamics to avoid complexity Assuming that the module already exists in the brain, the module uses the inverse dynamics calculation routine of the body dynamics model. Assuming that the movement (joint) displacement of the body such as the joint angle is q, the inverse model of the body dynamics system is given by the following equation (3.1).
Here, M is an inertia matrix, h () is a vector representing the influence of Coriolis force, centrifugal force, and external force, f ext is an external force acting on the body, and n is a joint driving moment by a muscle.

図3において、筋骨格モデル3の初期姿勢において、頭部31は車両の進行方向前方を向いており、眼球5の視線も図中符号5aで示されるように前方を向いている。この初期姿勢では視認目標点20は中心視野の外にあり、ハンドル7で隠れているため、直接視認することはできないが、視認目標点20の位置に対する知識を事前に得ている場合、符号5bに示されるように、運転者であれば、その方向に視線を向け、あるいは頭部31を回転させる。   3, in the initial posture of the musculoskeletal model 3, the head 31 is directed forward in the traveling direction of the vehicle, and the line of sight of the eyeball 5 is also directed forward as indicated by reference numeral 5a in the figure. In this initial posture, the visual recognition target point 20 is outside the central visual field and is hidden by the handle 7, so that it is not possible to directly recognize the visual recognition target point 20. As shown in FIG. 7, the driver turns his / her gaze in that direction or rotates the head 31.

これらの動作は、眼球運動モデル4と関連し、その点については後述するが、基本的に、運転者は、視認目標点20の方向に頭部31を移動させることによって、視認目標点20に対する視認性が向上するだろうという着想を得て、それを行動に移す。このような運動指令のメカニズムを生体力学モデル10自体に内在させる代わりに、本発明では、視野判断モデル50との連成により取得するようにしている。   These operations are related to the eye movement model 4, which will be described later. However, basically, the driver moves the head 31 in the direction of the viewing target point 20 so that the driver can move the head 31 toward the viewing target point 20. Get the idea that visibility will improve and take action. Instead of making the mechanism of such a movement command inherent in the biomechanical model 10 itself, in the present invention, the mechanism is obtained by coupling with the visual field judgment model 50.

すなわち、先述したように、視認目標点20を放射状に拡大したグラデーション球21によって、視野画像内における視認目標点20の凡その方位を取得でき、その方位と、初期姿勢における視線方向5aとのズレに基づいて、図3に破線矢印で示されるような初期動作の方向を取得することができる。   That is, as described above, the approximate azimuth of the visual recognition target point 20 in the visual field image can be acquired by the gradation sphere 21 obtained by radially expanding the visual recognition target point 20, and the deviation between the azimuth and the gaze direction 5a in the initial posture is obtained. , The direction of the initial operation as shown by the dashed arrow in FIG. 3 can be obtained.

さらに、確認動作における運転者の移動は、車両前方(x方向)と略直交する横方向(y方向)および/または上下方向(z方向)が基本となるため、初期姿勢における視線方向5aとのズレのy−z平面への投影またはy方向成分を確認動作における身体運動の軌道と仮定して、この軌道を実現し得る関節駆動モーメントを求めるために、この軌道と現時点での身体の姿勢との差異に応じた仮想的な力を考え、これを内部逆モデルに作用する外力の一種とする。これを意志力と呼ぶことにする。   Furthermore, since the movement of the driver in the confirmation operation is basically in a lateral direction (y direction) and / or a vertical direction (z direction) substantially perpendicular to the front of the vehicle (x direction), the movement of the driver with respect to the gaze direction 5a in the initial posture is performed. Assuming the displacement of the displacement on the yz plane or the y-direction component as the trajectory of the body movement in the confirmation operation, in order to obtain a joint driving moment capable of realizing this trajectory, the trajectory and the current body posture Consider a virtual force corresponding to the difference between the two and consider this a kind of external force acting on the internal inverse model. This is called willpower.

意志力fintは次式(3.2)により求められる。
ここで、Pcurは現時点での運動代表点の位置座標、Pdesは確認動作における身体運動の軌道計画により求められた運動代表点の位置座標、Aintは重み行列(対角行列)であり、複数の運動代表点の重要度や運動の向きの重要度に応じて定める。k1,k2は位置情報と速度情報の重みを定める係数である。
The will power f int is obtained by the following equation (3.2).
Here, P cur is the position coordinate of the motion representative point at the present time, P des is the position coordinate of the motion representative point obtained by the trajectory planning of the body motion in the confirmation operation, and A int is a weight matrix (diagonal matrix). The importance is determined according to the importance of the plurality of exercise representative points and the importance of the direction of the exercise. k 1 and k 2 are coefficients for determining the weights of the position information and the speed information.

この意志力を、他の身体に作用する反力と同等の外力として扱い、次式(3.3)のように逆モデルに与えれば、確認動作における身体運動の軌道を実現し得る関節駆動モーメントn(fint)が得られる。
If this intentional force is treated as an external force equivalent to a reaction force acting on another body and given to an inverse model as in the following equation (3.3), a joint driving moment capable of realizing the trajectory of the body movement in the confirmation operation n (f int ) is obtained.

しかし、意志力やその基となる身体運動の目標軌道は、必ずしも厳密に実現すべき運動を規定したものではない。例えば、複数の運動代表点を規定した場合、相互の動きにある程度の矛盾があってもそれを許容するようにすれば、身体運動の定義が容易になる。そもそも、意志力は実際には身体に作用していない仮想的な力であるため、通常は力学的なつり合いを満たさない。   However, the intentional trajectory and the target trajectory of the physical motion based on the will power do not always strictly define the motion to be realized. For example, when a plurality of motion representative points are defined, even if there is some inconsistency in the mutual motion, the definition of the physical motion is facilitated by allowing it. In the first place, willpower is a virtual force that does not actually act on the body, and therefore does not usually satisfy the mechanical balance.

また、筋負担の最小化のような生体力学的な負担に基づく運動生成を実現していない問題もある。さらに、逆モデルを単純に計算すると、関節自由度のみならず、身体と空間座標系との間の自由度に対する駆動力・モーメントが算出されてしまう。   There is also a problem in that exercise generation based on biomechanical load such as minimization of muscle load has not been realized. Furthermore, when the inverse model is simply calculated, not only the degrees of freedom of the joints but also the driving force / moment for the degrees of freedom between the body and the space coordinate system are calculated.

一方、生体・身体の運動規範を何らかのポテンシャルとして定め、最小化するダイナミクスを考慮することで生体の自然な動きを自律的に獲得するモデルが提案されている(Umedachi, T., et al., 2010)。そこで、本実施形態における生体力学モデル10においては、以下のような身体運動の規範となり得るポテンシャルを定義し、これを最小化する仕組みを導入する。   On the other hand, a model that autonomously acquires the natural movement of a living body by considering the dynamics of the living body and body as some potential and considering the dynamics to minimize it has been proposed (Umedachi, T., et al., 2010). Therefore, in the biomechanical model 10 according to the present embodiment, a potential that can be a norm of body movement as described below is defined, and a mechanism for minimizing the potential is introduced.

すなわち、次式(3.4)〜(3.6)に示されるように、意志力に相当する状態変数uを運動規範ポテンシャルUinvの状態変数とし、意志力と一致しかつ逆モデルによる関節駆動モーメントの総和を減少させるような状態変数uを得るダイナミクスを規定する。
That is, as shown in the following formulas (3.4) to (3.6), the state variable u corresponding to the will power is set as the state variable of the motion reference potential U inv , The dynamics for obtaining the state variable u that reduces the sum of the driving moments is defined.

ここで、n(u)は意志力相当の状態変数uを逆モデルに作用させた場合に得られる関節駆動モーメントである。k3,k4は係数、A1も重み係数行列であり、これは空間座標系と筋骨格モデル3との間の自由度に対応する関節駆動モーメント・駆動力に対応する重みを相対的に大きくするようにした。また、式(3.4)におけるポテンシャルの勾配(∂Uinv/∂u)の計算は解析的に求めるのが困難であるため、実際の計算では摂動を与えた差分式によって求める。 Here, n (u) is a joint driving moment obtained when a state variable u corresponding to a willing force is applied to the inverse model. k 3 and k 4 are coefficients, and A 1 is also a weight coefficient matrix. This is a weight coefficient corresponding to the joint driving moment and driving force corresponding to the degree of freedom between the spatial coordinate system and the musculoskeletal model 3. I made it bigger. Further, since it is difficult to analytically calculate the potential gradient (inU inv / ∂u) in the equation (3.4), in the actual calculation, it is obtained by a perturbed difference equation.

以上は筋骨格モデル3における身体運動のみであり、眼球運動モデル4との連成は考慮していない。眼球運動との連成を考える場合、次式(3.7)に示されるように、身体運動における運動ポテンシャルUinvに眼球運動負荷feyeを加え、これを新たに運動規範ポテンシャルとすればよい。
この眼球運動負荷feyeは、後述の眼球運動モデル4より得られる。これにより、筋骨格モデル3と眼球運動モデル4との連成、身体負荷と眼球運動負荷の両方を低減する運動の生成が可能となる。
The above is only the body movement in the musculoskeletal model 3, and does not consider the coupling with the eye movement model 4. When considering the coupling with the eye movement, as shown in the following equation (3.7), the eye movement load f eye is added to the movement potential U inv in the body movement, and this may be newly set as the movement reference potential. .
The eye movement load f eye is obtained from an eye movement model 4 described later. This enables coupling between the musculoskeletal model 3 and the eye movement model 4 and generation of a movement that reduces both the physical load and the eye movement load.

多関節マニピュレータのようなロボット制御では、タスク空間座標と関節(コンフィグレーション)空間座標との変換にヤコビ行列やその擬似逆行列を用いる方法が一般的に行われているが、そのような方法論は生体の制御モデルとして数学的抽象度が高い。それに対して、本モデルでは、身体力学系の逆モデルと意志力を仮定することで、タスク空間における運動軌道から直接的に関節駆動力を求めることができ、かつ、高度・抽象的な数学的処理を必要としない。また、意志力の求め方やその係数の決定法にやや曖昧さがあるものの、そのため逆に全身モデルのような多自由度で大規模モデルの運動生成が容易になる利点がある。   In the control of a robot such as an articulated manipulator, a method of using a Jacobi matrix or its pseudo inverse matrix to convert between task space coordinates and joint (configuration) space coordinates is generally performed. It has a high degree of mathematical abstraction as a biological control model. On the other hand, in this model, the joint driving force can be obtained directly from the motion trajectory in the task space by assuming the inverse model of the body dynamics system and the will power, and the advanced and abstract mathematical No processing required. In addition, although there is some ambiguity in how to determine will power and how to determine its coefficient, there is an advantage that it is easy to generate motion of a large-scale model with multiple degrees of freedom such as a whole body model.

3.3 順モデルベースによる運動指令調整
上述した逆モデルベースの運動指令生成モジュール12により、軌道計画に従いかつ筋負担の小さい運動生成が可能となる。しかしながら、筋骨格モデル3は多自由度で複雑である。また、逆モデルベースの計算と力学的に矛盾をきたす可能性のある意志力を用いているため、軌道計画と生体力学的に妥当な運動の両立はこれだけでは困難である。
3.3 Motion Command Adjustment Based on Forward Model Based on the above-described inverse model based motion command generation module 12, it is possible to generate a motion according to a trajectory plan and with a small muscle burden. However, the musculoskeletal model 3 has many degrees of freedom and is complicated. In addition, it is difficult to achieve both trajectory planning and biomechanically valid motion by itself, because it uses the willpower that may cause a mechanical inconsistency with the inverse model-based calculation.

そこで、運動制御のモデルとして身体ダイナミクスの順モデルを考慮し、順モデルベースの運動制御のメカニズムを追加する。順モデルを用いることで、時間軸をある程度進ませた予見的な運動制御が可能となり、生体の巧みな動きを再現できる。   Therefore, the forward model of body dynamics is considered as a model of the movement control, and a forward model-based movement control mechanism is added. By using the forward model, foreseeable motion control with the time axis advanced to some extent can be performed, and a skillful movement of a living body can be reproduced.

ここでは関節駆動モーメントに相当する状態変数vを仮定し、それによる運動規範ポテンシャルUfwd(v)を定義し、これを減少させるダイナミクスを次式(3.8)のように定義する。
ここで、n(u)は逆モデルにより求められた関節駆動モーメント、k5,k6は係数である。
Here, a state variable v corresponding to the joint driving moment is assumed, a motion reference potential U fwd (v) is defined by the state variable v, and the dynamics for reducing this is defined as the following equation (3.8).
Here, n (u) is a joint driving moment obtained by the inverse model, and k 5 and k 6 are coefficients.

運動規範ポテンシャルUfwdは、順モデルにより以下のようにして求める。先ず、関節駆動モーメント相当の状態変数vが与えられると、現時点(時刻t)での加速度を順モデルにより次式(3.9)のように推定できる。
The motion reference potential U fwd is obtained by a forward model as follows. First, when the state variable v corresponding to the joint driving moment is given, the acceleration at the present time (time t) can be estimated by the forward model as in the following equation (3.9).

この加速度から、時刻t+Δtの身体の運動変位と速度を、次式(3.10)(3.11)のような簡単な時間積分により推定できる。
From this acceleration, the motion displacement and velocity of the body at time t + Δt can be estimated by simple time integration as in the following equations (3.10) and (3.11).

これらより、時刻t+Δtにおける運動代表点の速度と位置を、次式(3.12)(3.13)のように推定できる。
From these, the velocity and position of the motion representative point at time t + Δt can be estimated as in the following equations (3.12) and (3.13).

上記f1,f2は身体構造の順運動学モデルにより関節変位・速度から運動代表点位置・速度を求める関数である。運動規範ポテンシャルUfwdは、順モデルより得られる予測運動代表点位置Ppreと軌道計画での軌道位置Pdesとの差異によって次式(3.14)のように定義される。
The above f 1 and f 2 are functions for obtaining the position and speed of the motion representative point from the joint displacement and speed using the forward kinematics model of the body structure. The motion reference potential U fwd is defined by the following equation (3.14) based on the difference between the predicted motion representative point position P pre obtained from the forward model and the trajectory position P des in the trajectory planning.

ここで、A2,A3は重み係数行列である。上式(3.14)は、先述した式(3.7)のような眼球運動との連成は考慮されていない。そこで、上式(3.14)に、視野判断モデルから出力される視認度(R値)を付加することで、身体運動と眼球運動との連成を実現した運動規範ポテンシャルを次式(3.15)のように定義する。
Here, A 2 and A 3 are weight coefficient matrices. The above equation (3.14) does not consider the coupling with the eye movement as in the aforementioned equation (3.7). Therefore, by adding the visibility (R value) output from the visual field judgment model to the above equation (3.14), the motion reference potential that realizes the coupling between the body movement and the eye movement is expressed by the following equation (3.14). .15).

R値は目標物の視認度が向上するほど大きくなるが、運動規範ポテンシャルは最小化を図るため、R値は逆数をとる。   Although the R value increases as the visibility of the target increases, the R value takes the reciprocal to minimize the motion reference potential.

先述した式(3.4)や式(3.8)のような神経制御系のダイナミクスを考慮したのは、目標運動軌道の達成と筋負担などの最小化のように相反する運動目的を自律的に達成するためである。筋負担の最小化はすなわち最適化問題であり、その解法のためには一般的には繰り返しの探索計算が必要となる。これを上式(3.15)のようにポテンシャルとして表した目的関数を減少する方向に制御変数を時間変化させることで、運動の生成と運動目的の両立を繰り返し計算することなく自律的に達成できる。   Considering the dynamics of the neural control system as described in the above formulas (3.4) and (3.8), the autonomous motion objectives such as the achievement of the target motion trajectory and the minimization of the muscle burden are considered. In order to achieve this. Minimizing muscle strain is an optimization problem, and its solution generally requires iterative search calculations. By changing the control variable over time in the direction of decreasing the objective function expressed as a potential as in the above equation (3.15), it is possible to achieve both the generation of the motion and the purpose of the motion autonomously without repeatedly calculating. it can.

一方、前述の式(3.4)および式(3.8)は、制御系としては1次遅れ特性を持ち、時間的な遅れが生じる。順モデルは、この時間遅れを補償する機能を有しているが、逆モデルだけでは実現困難な目標運動軌道の達成と筋負担などの最小化のような、相反する運動目的の両立を自律的に達成する機能をも有している。すわなち、逆モデルでは解消できない力学的な矛盾を順モデルによって解消することで、この相反する運動目的の両立が容易化できる利点がある。   On the other hand, the above-described equations (3.4) and (3.8) have a first-order lag characteristic as a control system, and a time delay occurs. The forward model has the function of compensating for this time delay, but autonomously balances opposing motion goals, such as achieving the target motion trajectory and minimizing muscle strain, which are difficult to achieve with the inverse model alone. It also has the function to achieve. In other words, by resolving the dynamic contradiction that cannot be solved by the inverse model by the forward model, there is an advantage that it is possible to easily achieve the reciprocal motion objectives.

最終的に身体力学系へ作用させる関節駆動モーメントnrealは、計算の収束性の補償と関節インピーダンスを考慮して、前述の式(3.8)の順モデルの状態変数vに減衰項を加えて次式(3.16)のようになる。
ここで、k7は係数である。この減衰項は、身体モデルとしては神経制御機構に基づくものであり、関節軟部組織による構造的な減衰特性は、次に示す筋骨格モデル3で別途定義する。
The joint driving moment n real finally acting on the body dynamics system is obtained by adding a damping term to the state variable v of the forward model of the above-mentioned equation (3.8) in consideration of compensation of calculation convergence and joint impedance. Thus, the following equation (3.16) is obtained.
Here, k 7 is a coefficient. This attenuation term is based on a neural control mechanism as a body model, and a structural attenuation characteristic of the soft tissue of the joint is separately defined by a musculoskeletal model 3 described below.

3.4 筋骨格モデル(身体力学モデル)
以上の運動制御モデルにより求められた関節駆動モーメントnrealを筋骨格モデル3に与え、順動力学計算を行うことで、身体動作を生成する。筋骨格モデル3は、既存の歩行シミュレーションモデル(Hase and Yamazaki, 2002)を拡張し、図4(a)に示すように、全身で20リンク、43関節自由度を持つ3次元モデルとしている。
3.4 Musculoskeletal model (body mechanics model)
The body motion is generated by giving the joint driving moment n real obtained by the above motion control model to the musculoskeletal model 3 and performing forward dynamics calculation. The musculoskeletal model 3 is an extension of the existing walking simulation model (Hase and Yamazaki, 2002), and is a three-dimensional model having 20 links and 43 joint degrees of freedom for the whole body as shown in FIG.

すなわち、筋骨格モデル3は、頭部31、頸椎32、胸部(胸椎上部)33a、胸椎下部33b、腰椎34、骨盤35、左右脚部36を構成する大腿36a、下腿36b、足部36c、左右の鎖骨37a、左右腕部を構成する上腕37b、前腕37c、手部37dから構成されており、各関節は1〜3個の円筒(回転軸)で概略的に示されている。例えば上腕37bと前腕37cの間の肘関節は1個の円筒回りの曲げの1自由度、前腕37cと手部37dの間の手首関節は3個の円筒の組合せにより、前後および内外の曲げと捩じりの3自由度が表示されている。   That is, the musculoskeletal model 3 includes a head 31, a cervical vertebra 32, a chest (upper thoracic vertebra) 33a, a lower thoracic vertebra 33b, a lumbar vertebra 34, a pelvis 35, a thigh 36a, a lower leg 36b, a foot 36c, Of the clavicle 37a, upper arm 37b, left and right arms 37c, and hand 37d. Each joint is schematically shown by one to three cylinders (rotational axes). For example, the elbow joint between the upper arm 37b and the forearm 37c has one degree of freedom of bending around one cylinder, and the wrist joint between the forearm 37c and the hand part 37d has a combination of three cylinders, whereby the front and rear and inside and outside bending and screwing are performed. The three degrees of freedom are displayed.

実施例では、身体各節の質量や慣性モーメントなどの身体パラメータの値は、一般的な成人男性を想定したものを標準としているが、入力データ(シミュレーションデータ)の身長、体重の入力データに基づき、身体パラメータをスケーリングすることができる。また、各関節には関節軟部組織などの関節構造に起因する受動抵抗モーメントが作用する。これは非線形の弾性特性関数(山崎他,2006)と線形の粘性減衰とで規定される。   In the embodiment, the values of the body parameters such as the mass and the moment of inertia of each body segment are assumed to be those of a general adult male as a standard, but are based on the height and weight of the input data (simulation data). , The body parameters can be scaled. In addition, a passive resistance moment due to a joint structure such as soft joint tissue acts on each joint. This is defined by a nonlinear elastic property function (Yamazaki et al., 2006) and a linear viscous damping.

3.5 接触力の定義
身体とシート6とは基本的に面接触する。身体の皮膚組織は非線形な粘弾性特性を有し、さらに、シート6には、シートクッション61、シートバック62の何れにもクッション材が設けられ、粘弾性特性を有している。これらの特性を精密にモデル化するためには有限要素法などの計算方法が望ましいが、計算コストが大きく、また多数の物理特性値が必要となる。
3.5 Definition of Contact Force The body and the sheet 6 basically come into surface contact. The skin tissue of the body has non-linear viscoelastic properties, and the seat 6 is provided with a cushion material on both the seat cushion 61 and the seat back 62, and has viscoelastic properties. Although a calculation method such as the finite element method is desirable for accurately modeling these characteristics, the calculation cost is large and a large number of physical characteristic values are required.

そこで、本実施形態では、より簡便に接触力を表現するために、面接触、分布接触を仮定せず、図4(b)に示すように、それぞれの身体節(32〜36a)の複数の接触点に接触力が作用するものと仮定する。ここでは先ず、シートクッション61(座面)やシートバック62などの形状を複数の平面で表し、これを接触平面(61a,61b,62a,62b,62c)として定義する。身体節上に定義された接触点が接触平面よりも沈み込む場合、粘弾性要素を仮定し、接触点変位と接触点速度に応じた反力を返すようにする。また、摩擦を仮定し、接触面接線方向分力が摩擦力を超える場合、滑りが生じるものとする。   Therefore, in the present embodiment, in order to more easily express the contact force, surface contact and distributed contact are not assumed, and a plurality of body segments (32 to 36a) as shown in FIG. It is assumed that a contact force acts on a contact point. Here, first, the shapes of the seat cushion 61 (seat surface) and the seat back 62 are represented by a plurality of planes, and are defined as contact planes (61a, 61b, 62a, 62b, 62c). If the contact point defined on the body segment sinks below the contact plane, a viscoelastic element is assumed and a reaction force corresponding to the contact point displacement and the contact point velocity is returned. Also, assuming friction, if the tangential component of the contact surface exceeds the frictional force, slippage occurs.

具体的には、接触面座標系を接触面上に原点、接線方向にx,y軸、法線方向にz軸(空間方向が正)のように定義し、これらに対して次式(3.17)(3.18)によって接触力を規定する。
Specifically, the contact surface coordinate system is defined as the origin on the contact surface, the x and y axes in the tangential direction, and the z axis in the normal direction (positive in the spatial direction). .17) (3.18) defines the contact force.

ここで、式(3.17)は接線方向(xまたはy)の仮の分力、ks接線方向の弾性係数、cs粘性係数、[s]は接線座標(xまたはy)、[s0]は弾性要素の基準点であり、最初に接触面に接触点が接触した位置座標を[s0]として保持する。 Here, the temporary component force, k s tangential modulus of formula (3.17) is tangential (x or y), c s viscosity coefficient, [s] tangential coordinates (x or y), [s 0] is the reference point of the elastic element, it holds first the position coordinates contact point is in contact with the contact surface as [s 0].

zは法線方向分力,max0(x)はxが負の場合はゼロを返し、正の場合はそのままの値を返す関数、kz,czは法線方向粘弾性係数、eは非線形係数、[z]は法線座標、step(x,x0,y0,x1,y1)は不連続性を避けるために3次曲線で近似されたステップ関数、すなわち、変数xがx<x0の場合y0を返し、x1<xの場合y1を返し、x0≦x≦x1ではy0からy1の間を3次曲線で補間し、それに応じた値を返す。これは粘性係数を、接触点の侵入量によって変化させるための工夫である。すなわち、式(3.18)において[z]=0のとき粘性係数はゼロとなり、規定侵入量dより[−z]>dでは粘性係数がczになる。 F z is the component force in the normal direction, max 0 (x) is a function that returns zero when x is negative and returns the value as it is when x is positive, k z and cz are the viscoelastic coefficients in the normal direction, e nonlinear coefficient, [z] are the normal coordinates, step (x, x 0, y 0, x 1, y 1) is step function is approximated by a cubic curve in order to avoid discontinuities, i.e., the variable x Returns y 0 if x <x 0 , returns y 1 if x 1 <x, and if x 0 ≦ x ≦ x 1 , interpolates between y 0 and y 1 with a cubic curve and returns a value corresponding to it return it. This is a device for changing the viscosity coefficient depending on the amount of penetration of the contact point. That is, the viscosity coefficient when the [z] = 0 in formula (3.18) becomes zero, than a specified amount of intrusion d [-z]> d the viscosity coefficient is c z.

接線方向に生じる摩擦力を求めるいくつかの代表的なモデルが知られているが、本実施形態では、簡易的に身体挙動を再現するために複雑な摩擦モデルは考慮せず、摩擦力に応じて接線方向弾性要素の基準点位置を更新することにより摩擦を表現するものとした。   Several typical models for determining the frictional force generated in the tangential direction are known.However, in the present embodiment, a complicated friction model is not considered in order to easily reproduce the body behavior, The friction is expressed by updating the reference point position of the tangential elastic element.

すなわち,式(3.17)で求めた仮の接線分力の絶対値が摩擦力より大きい場合は動摩擦となり、接線方向分力は次式(3.19)で示される。
ここで、μは摩擦係数、sgn(x)は、xが負の場合−1を、正の場合+1を返す関数である。
That is, when the absolute value of the provisional tangential component obtained by the equation (3.17) is larger than the frictional force, the friction is kinetic friction, and the tangential component is expressed by the following equation (3.19).
Here, μ is a friction coefficient, and sgn (x) is a function that returns −1 when x is negative and +1 when x is positive.

また、式(3.17)で求めた仮の接線分力の絶対値が摩擦力以下の場合は静止状態となり、次式(3.21)で示されるように、粘弾性要素によって定められた仮の接線方向分力がそのまま接線方向分力になる。
When the absolute value of the provisional tangential component force obtained by the equation (3.17) is equal to or less than the frictional force, the apparatus is in a stationary state, and is determined by the viscoelastic element as shown by the following equation (3.21). The temporary tangential component becomes the tangential component as it is.

シート6に接触する接触点位置は、身体形状とシート6との接触状態を考慮し、図4(b)に示すように、全身で24点を定義した。それぞれの接触点位置座標は、身体節(32〜36a)上の節座標で記述され、節座標上に固定されているものとする。なお、接触点としては、これら以外にも足部36cとフロア面との接触、ならびに手部37dとハンドル7の把持部にも定義する。   As shown in FIG. 4B, 24 contact points for the whole body are defined as the contact point positions that come into contact with the sheet 6 in consideration of the body shape and the contact state with the sheet 6. Each contact point position coordinate is described as a node coordinate on the body segment (32 to 36a) and is fixed on the node coordinate. In addition, the contact point is also defined as the contact between the foot 36c and the floor surface, and the hand 37d and the grip of the handle 7.

以上をまとめると、先ず、逆モデルベースの運動指令生成モジュール12において、目標姿勢と現在の姿勢との差異に応じた仮想的な力を考え、これを内部逆モデルに作用する意志力と規定する。この意志力を他の身体に作用する反力と同等の外力として扱い、逆モデルに与えれば,目標姿勢を実現する関節駆動モーメントを得ることができる。この意志力に摂動を与え、逆動力学計算によって意志力と身体に作用する外力から関節駆動モーメントを算出する。これを状態変数の数だけ繰り返す。   To summarize the above, first, in the inverse model-based motion command generation module 12, a virtual force corresponding to the difference between the target posture and the current posture is considered, and this is defined as the will force acting on the internal inverse model. . If this intentional force is treated as an external force equivalent to a reaction force acting on another body and applied to an inverse model, a joint driving moment for realizing the target posture can be obtained. A perturbation is applied to this will, and a joint driving moment is calculated from the will and the external force acting on the body by inverse dynamics calculation. This is repeated for the number of state variables.

次に、順モデルベースの運動制御モジュール13において、関節駆動モーメントに摂動を与え、順動力学計算によって現時点での加速度を計算する。加速度を時間積分してΔt秒(例えば0.1秒)後の姿勢を推定する。推定姿勢から視野評価と目標姿勢との差異を算出する。これを状態変数の数だけ繰り返す。これにより、身体負荷最小化と見えやすさ最大化を行う関節駆動モーメントを決定する。   Next, in the forward model-based motion control module 13, a perturbation is applied to the joint driving moment, and the current acceleration is calculated by forward dynamics calculation. The posture after Δt seconds (for example, 0.1 seconds) is estimated by integrating the acceleration with time. The difference between the visual field evaluation and the target posture is calculated from the estimated posture. This is repeated for the number of state variables. Thereby, the joint driving moment for minimizing the physical load and maximizing the visibility is determined.

4.眼球運動モデル
生体力学モデル10には、図6に示されるように、前庭動眼反射モデル(VOR)41、追跡眼球運動モデル(Smooth Pursuit)42、サッカードモデル(Saccade)43の3つのモデルで構成された眼球運動モデル4が組み込まれており、それぞれが補完しあって眼球5を動かしている。以下、各眼球運動モデルについて図面を参照しながら説明する。
4. Eye Movement Model As shown in FIG. 6, the biomechanical model 10 includes three models: a vestibular oculomotor reflex model (VOR) 41, a tracking eye movement model (Smooth Pursuit) 42, and a saccade model (Saccade) 43. The eyeball movement models 4 are incorporated, and the eyeballs 5 are moved by complementing each other. Hereinafter, each eye movement model will be described with reference to the drawings.

4.1 前庭動眼反射(VOR)
前庭動眼反射とは、頭部31または身体30が運動している際に、視線5bの方向を一定に保つ働きをする反射性の眼球運動である。すなわち、頭部31が回転すると、回転をキャンセルするように、回転方向と逆方向へ眼球5がスムーズに動く。前庭動眼反射のモデリングには既知のモデルを採用できる。本実施形態では、図7に示すようなMerfeldとHaslwanterらの前庭動眼反射モデル41を採用した。
4.1 Vestibular oculomotor reflex (VOR)
The vestibular oculomotor reflex is a reflective eye movement that functions to keep the direction of the line of sight 5b constant when the head 31 or the body 30 is exercising. That is, when the head 31 rotates, the eyeball 5 smoothly moves in a direction opposite to the rotation direction so as to cancel the rotation. A known model can be used for modeling the vestibular oculomotor reflex. In the present embodiment, a vestibular oculomotor reflection model 41 of Merfeld and Haslwanter et al. As shown in FIG. 7 is employed.

この前庭動眼反射モデル41は大きく分けて、I:空間における動作(Movement in space)、II:耳石および半規管による伝達(Transduction by otoliths and canals)、III:内部処理(Internal processing)、IV:眼球動作生成(Eye movement generation)の4つのフェーズで構成されている。以下に各フェーズの詳細を示す。   The vestibular oculomotor reflex model 41 can be roughly divided into I: Movement in space, II: Transmission by otoliths and semicircular canals (Transduction by otoliths and canals), III: Internal processing, IV: Eyeball It consists of four phases of eye movement generation. The details of each phase are shown below.

I:空間における動作(Movement in space)
このフェーズは、頭部31への物理刺激つまり前庭系に対しての入力フェーズである。頭部31の運動は、次式(4.1)で示される並進加速度αと、次式(4.2)で示される角速度ωで表され、何れも3次元のベクトルであり、これら2つが前庭動眼反射モデルへの入力となる。
ここでg(ω)のブロック411は、現在時点での頭部31の傾斜によって生じた重力加速度ベクトルgを、角速度ベクトルωを用いて更新するものであり、以下の微分方程式(4.3)で表される。
I: Movement in space
This phase is a physical stimulus to the head 31, that is, an input phase to the vestibular system. The motion of the head 31 is represented by a translational acceleration α expressed by the following equation (4.1) and an angular velocity ω expressed by the following equation (4.2), and both are three-dimensional vectors. Input to vestibular oculomotor reflex model.
Here, a block 411 of g (ω) updates the gravitational acceleration vector g caused by the inclination of the head 31 at the current time using the angular velocity vector ω, and the following differential equation (4.3) It is represented by

半規管への入力は直接ωであり、耳石器官が知覚する物理量は並進加速度αによって生じた慣性力ベクトルと重力加速度gの合ベクトルfであり、次式(4.4)のように算出される。
The input to the semicircular canal is directly ω, and the physical quantity perceived by the otolith organ is the combined vector f of the inertial force vector and the gravitational acceleration g generated by the translational acceleration α, and is calculated as in the following equation (4.4). You.

II:耳石および半規管による伝達(Transduction by otoliths and canals)
このフェーズは、頭部運動をセンシングする耳石器官の伝達特性Sotoと半規管の伝達特性Ssccを表している。
II: Transduction by otoliths and canals
This phase represents the transfer characteristic S oto of the otolith organ for sensing head movement and the transfer characteristic S scc of the semicircular canal.

耳石器官は水平面に対して約30度上向きに傾いており、後方向および下方向に重力によって引っ張られていると考えられている。この特性を考慮して、ブロック412で示される耳石器官の伝達関数Sotoは、単位行列とz軸方向への一定の力を加え、次式(4.5)で示される。
The otolith organ is inclined about 30 degrees upward with respect to the horizontal plane, and is considered to be pulled backward and downward by gravity. In consideration of this characteristic, the transfer function S oto of the otolith organ indicated by the block 412 is expressed by the following equation (4.5) by applying a unit matrix and a constant force in the z-axis direction.

ブロック413で示される半規管の伝達関数Ssccは、3×3の対角行列であり、その要素は全て次式(4.6)で与えられる。ここでτd、τaはそれぞれ時定数である。
The transfer function S scc of the semicircular canal shown by the block 413 is a 3 × 3 diagonal matrix, and all of its elements are given by the following equation (4.6). Here, τ d and τ a are time constants, respectively.

このように、慣性力方向加速度αと重力加速度gの合ベクトルfには耳石の伝達特性Sotoが考慮され、角速度ベクトルωには、半規管の伝達特性Ssccが考慮され、それぞれが中枢神経系へ伝達される感覚情報αoto、αsccとなる。 As described above, the combined vector f of the inertial force direction acceleration α and the gravitational acceleration g considers the transfer characteristic S oto of the otolith, and the angular velocity vector ω considers the transfer characteristic S scc of the semicircular canal. Sensory information α oto and α scc transmitted to the system.

III:内部処理(Internal processing)
このフェーズは、中枢神経系が感覚器官(耳石と半規管)から伝達された感覚情報を知覚情報へ処理するフェーズであり、身体と感覚器官の内部モデルが含まれていると仮定している。これら内部モデルの感覚情報の推定値と実際の感覚情報との誤差をフィードバックすることで、認識している情報と実際の情報の差を小さくする構造になっている。
III: Internal processing
In this phase, the central nervous system processes sensory information transmitted from sensory organs (otoliths and semicircular canals) into perceptual information, and assumes that an internal model of the body and sensory organs is included. By feeding back the error between the estimated value of the sensory information of the internal model and the actual sensory information, the difference between the recognized information and the actual information is reduced.

感覚器官の内部モデル(耳石と半規管)の伝達関数は、何れも3×3の対角行列であり、その要素は次式(4.7)および(4.8)で示される。
The transfer functions of the internal models (sensory organs and semicircular canals) of the sensory organs are all 3 × 3 diagonal matrices, and their elements are represented by the following equations (4.7) and (4.8).

内部モデルによって推定された慣性力方向加速度と重力加速度の合ベクトルf^はブロック414を経て耳石の感覚情報の推定値α^otoとなり、内部モデルによって推定された角速度ベクトルω^はブロック415を経て半規管の感覚情報の推定値α^sccとなる。 The combined vector f ^ of the inertial force direction acceleration and the gravitational acceleration estimated by the internal model becomes the estimated value α ^ oto of the otolith sensory information via the block 414, and the angular velocity vector ω ^ estimated by the internal model is calculated by the block 415. After that, it becomes an estimated value α ^ scc of the sensory information of the semicircular canal.

半規管の内部モデルのループ部分のブロック416(dump)は眼球の減衰特性を表しており、次式(4.9)の非線形関数で示される。
ここで,a,bは係数,引数ωはベクトルではなく、ベクトルのノルムを用いる。
これらのループを経て、並進加速度と角速度の推定値α^、ω^をそれぞれ算出する。
A block 416 (dump) of a loop portion of the internal model of the semicircular canal represents the attenuation characteristics of the eyeball, and is represented by a nonlinear function of the following equation (4.9).
Here, a and b are coefficients, and the argument ω is not a vector but a norm of the vector.
Through these loops, the estimated values α ^ and ω ^ of the translational acceleration and the angular velocity are calculated, respectively.

ブロック417(X)は外積を表しており、耳石の感覚情報αotoと内部モデルによる推定値α^otoのそれぞれの正規化ベクトルの外積をとることによって回転情報に変換され、方向の違い、すなわち耳石の感覚情報と耳石の内部モデルの感覚情報の推定値の誤差信号を表しており、身体の内部モデルへフィードバックされ、さらに半規管の内部モデルループへ伝達され、耳石と半規管の相互作用を表している。これら耳石と半規管の相互作用により、頭部の並進加速度と重力加速度とが区別して知覚され、前庭系の情報から頭部の姿勢を認識することができる。例えば、床に仰向けになった状態では、重力加速度により耳石は後方に引っ張られ、したがって頭部後方向に加速度が加わるが、それを並進加速度と知覚しない。 A block 417 (X) represents an outer product, which is converted into rotation information by taking an outer product of each normalized vector of the otolith sensory information α oto and the estimated value α ^ oto by the internal model, and the difference in the direction, In other words, it represents the error signal between the otolith sensory information and the estimated value of the sensory information of the internal model of the otolith, fed back to the internal model of the body, further transmitted to the internal model loop of the semicircular canal, and the mutual Represents the action. Due to the interaction between the otolith and the semicircular canal, the translational acceleration and the gravitational acceleration of the head are distinguished and perceived, and the posture of the head can be recognized from the information of the vestibular system. For example, in the state of lying on the floor, the otolith is pulled backward by the gravitational acceleration, and therefore, the acceleration is applied in the backward direction of the head, but it is not perceived as the translational acceleration.

ブロック418は、身体の内部モデルを表しており、重力加速度ベクトルの推定値g^を算出する。   Block 418 represents the internal model of the body and calculates an estimate g ^ of the gravitational acceleration vector.

IV:眼球動作生成(Eye movement generation)
このフェーズでは、知覚された並進加速度α^と角速度ω^を用いて、前庭動眼反射の眼球への運動指令ωVORを算出する。前庭動眼反射VORの運動指令ωVORは、回転成分の要素である回転VORと並進成分の要素である並進VORで構成されており、両者を加算することで算出される。
IV: Eye movement generation
In this phase, the motion command ω VOR to the eyeball of the vestibular oculomotor reflex is calculated using the perceived translational acceleration α ^ and angular velocity ω ^. The motion command ω VOR of the vestibular oculomotor reflex VOR is composed of a rotation VOR which is an element of a rotation component and a translation VOR which is an element of a translation component, and is calculated by adding both.

知覚された角速度ベクトルω^はゲインによって反転され、回転VORの運動指令ωR-VORとなる。知覚された並進加速度ベクトルα^は、漏れ積分回路419(Leaky Integrator)で並進速度ベクトルに積分され、目標視線方向を用いて角速度ベクトルに変換された後、ハイパスフィルタ420を経て並進VORの運動指令ωT-VORとなる。 The perceived angular velocity vector ω ^ is inverted by the gain and becomes a rotation VOR motion command ω R-VOR . The perceived translational acceleration vector α ^ is integrated into a translational velocity vector by a leaky integration circuit 419 (Leaky Integrator), converted into an angular velocity vector using a target line-of-sight direction, and passed through a high-pass filter 420 to execute a translational VOR motion command. ω T-VOR .

並進速度による角速度ω^Vは目標視線の位置ベクトルdを用いて次式(4.10)のように算出できる。
The angular velocity ω ^ V based on the translation speed can be calculated by the following equation (4.10) using the position vector d of the target line of sight.

ハイパスフィルタ420の伝達関数は、次式(4.11)で示される。
The transfer function of the high-pass filter 420 is represented by the following equation (4.11).

以上が前庭動眼反射モデル41の詳細である。このモデルは伝達関数など周波数領域で計算がなされているが、本実施形態では、この前庭動眼反射モデルを時間領域に変換し、18個の一階常微分方程式を含む数式モデルとした。なお、変数は3次元のベクトルであるので、6種類の微分方程式×3となっている。以下に数式を示す。   The details of the vestibular oculomotor reflection model 41 have been described above. This model is calculated in a frequency domain such as a transfer function. In the present embodiment, the vestibular oculomotor reflection model is converted into a time domain, and a mathematical model including 18 first-order ordinary differential equations is used. Since the variables are three-dimensional vectors, there are six types of differential equations × 3. The formula is shown below.

αsccは、媒介変数αscc2、αscc21、αscc22を用いて次式(4.12)の微分方程式で解ける。
α scc can be solved by the differential equation of the following equation (4.12) using the parameters α scc2 , α scc21 , and α scc22 .

ここで,これら媒介変数αscc2、αscc21、αscc22の関係は次式(4.13)の通りである。
Here, the relationship between these parameters α scc2 , α scc21 , and α scc22 is as follows (4.13).

αoto、α^otoは、伝達関数がそれぞれ定数の対角行列であるので、信号の流れの関係から次式(4.14)〜(4.16)のようになる。
Since α oto and α ^ oto are transfer functions each of which is a constant diagonal matrix, the following equations (4.14) to (4.16) are obtained from the relationship of signal flow.

αoto、α^otoの誤差信号efは、正規化ベクトル同士の外積であるので、次式(4.17)で表される。
alpha oto, alpha ^ oto of the error signal e f is because it is the outer product between the normalized vector is expressed by the following equation (4.17).

「dump」は次式(4.18)に示すとおりである。
ここで、dump(ω)はベクトルのノルムを変数とする関数なのでスカラーである。
“Dump” is as shown in the following equation (4.18).
Here, dump (ω) is a scalar because it is a function using the norm of a vector as a variable.

ω^は信号の流れから、またα^sccの媒介変数α^scc2を用いて次式(4.19)のようになる。
なお、α^sccとα^scc2の関係は後に示す。
ω ^ is given by the following equation (4.19) from the signal flow and using the parameter α ^ scc2 of α ^ scc .
The relationship between α ^ scc and α ^ scc2 will be described later.

ω^dは単純に定数倍であるため、次式(4.20)で示される。
Since ω ^ d is simply a constant multiple, it is expressed by the following equation (4.20).

α^sccは、媒介変数α^scc2を用いて、次式(4.21)の微分方程式で解ける。
また、α^scc、α^scc2の関係を次式(4.22)に示す。
α ^ scc can be solved by the following differential equation (4.21) using the parameter α ^ scc2 .
The relationship between α ^ scc and α ^ scc2 is shown in the following equation (4.22).

g^は次式(4.23)および(4.24)の微分方程式で解ける。
g ^ can be solved by the following differential equations (4.23) and (4.24).

α^は次式(4.25)で表され、v^は漏れ積分回路(Leaky Integrator)によりα^の積分であるため、次式(4.25)〜(4.27)の微分方程式で解ける。
α ^ is represented by the following equation (4.25), and v ^ is the integral of α ^ by the leaky integrator, so that the differential equation of the following equations (4.25) to (4.27) I can solve it.

ωT-VORは媒介変数ωT-VOR2を用いて次式(4.28)の微分方程式で解ける。
また、ωT-VOR、ωT-VOR2の関係を次式(4.29)に示す。
ω T-VOR can be solved by the following differential equation (4.28) using the parameter ω T-VOR2 .
The relationship between ω T-VOR and ω T-VOR2 is shown in the following equation (4.29).

ωR-VORは、ω^に単純にゲインをかけ、反転させたものなので、次式(4.30)で表される。
Since ω R-VOR is obtained by simply multiplying ω ^ by a gain and inverting it, it is expressed by the following equation (4.30).

最終的に前庭動眼反射の出力ωVORは、これらωT-VOR、ωR-VORの加算として次式(4.31)で表される。
Finally, the output ω VOR of the vestibular oculomotor reflex is expressed by the following equation (4.31) as the addition of ω T-VOR and ω R-VOR .

なお、式変形の方式および順番は、コンピュータで微分方程式を解く関係から上記のような形とした。以上示したように、前庭動眼反射モデル41を時間領域における数式モデルとして扱うことで、本実施形態において適応可能な形式となる。   In addition, the method and order of the equation transformation were set as described above from the relation of solving a differential equation by a computer. As described above, by treating the vestibular oculomotor reflection model 41 as a mathematical model in the time domain, it becomes a format applicable in the present embodiment.

4.2 追跡眼球運動(Smooth Pursuit)
追跡眼球運動は、ゆっくりと移動する視覚対象に視点を追従させているときに生じる滑らかな眼球運動である。運動を起こす刺激は、動いている対象物の速度であり、対象物と眼球運動速度を一致させることにより、対象物を網膜上に保持する随意性の運動である。速い動きには追従することができず、50deg/sほどまでしか滑らかに追従できないが、指標の軌跡が予測できるような場合は、90deg/s程度まで追従させることができる。
4.2 Pursuit Eye Movement (Smooth Pursuit)
The pursuit eye movement is a smooth eye movement that occurs when the viewpoint follows a slowly moving visual object. The stimulus that causes the movement is the speed of the moving object, and is an optional movement that holds the object on the retina by matching the eye movement speed with the object. Although it cannot follow fast movements and can only smoothly follow up to about 50 deg / s, it can follow up to about 90 deg / s when the trajectory of the index can be predicted.

本実施形態では、追跡眼球運動をモデリングするに当たり、Robinsonらのモデルを採用した。この追跡眼球運動モデル42は、目標速度を入力とし、それを追従する眼球速度を出力する。3つのフィードバックループで構成されており、追跡眼球運動の遅延特性を考慮し、各所に時間遅れ定数を介している。なお、この追跡眼球運動モデル42についても前庭動眼反射モデル41と同様に信号は3次元のベクトルで扱い、各要素はそれぞれ同じ処理がなされる。追跡眼球運動モデル42のブロック線図を図8に示す。   In the present embodiment, Robinson et al.'S model was used in modeling the tracking eye movement. The tracking eye movement model 42 receives a target velocity and outputs an eye velocity that follows the target velocity. It is composed of three feedback loops, and takes into account the delay characteristics of the tracking eye movement, and uses time delay constants at various places. In this tracking eye movement model 42, the signal is handled as a three-dimensional vector similarly to the vestibular movement reflection model 41, and the same processing is performed for each element. A block diagram of the tracking eye movement model 42 is shown in FIG.

4.2.1 CNS(Central Nervous System)付近
ここでは、実際の追跡眼球運動による眼球角速度(Eの時間微分)と、追跡眼球運動による眼球角速度の遠心性コピーである追跡眼球運動指令がそれぞれフィードバックされてくる。ターゲットの角速度と眼球角速度の誤差信号とフィードバックされてきた追跡眼球運動指令によって、中枢神経系への目標角速度のコピー、すなわち、ターゲットの角速度の知覚情報が再形成される。数字で示すブロックはそれぞれその数字(msec)の時間遅れを表している係数であり、τ1、P2もそれぞれ時間遅れを表している係数である。
4.2.1 Near CNS (Central Nervous System) Here, the eyeball angular velocity (time differential of E) based on the actual tracking eyeball movement and the tracking eyeball movement command which is an efferent copy of the eyeball angular velocity based on the tracking eyeball movement are fed back. Will be. The target angular velocity is copied to the central nervous system, that is, the perceived information of the target angular velocity is reproduced by the error signal of the target angular velocity and the eyeball angular velocity and the tracking eye movement command fed back. Each block indicated by a numeral is a coefficient representing a time delay of the numeral (msec), and τ 1 and P 2 are also coefficients representing a time delay.

ブロック421(Plant)は眼筋と眼窩組織、ブロック422で示されるCP(Central Processing)は中枢神経系の伝達特性をそれぞれ表しており、それぞれ次式(4.32)、(4.33)の伝達関数で表される。
ここで、τe2はPlantの時定数、τcはCPの時定数である。
これらのブロック421,422による処理を経て、ターゲットの角速度の知覚情報は目標眼球角速度となる。
Block 421 (Plant) represents the ocular muscle and orbital tissue, and CP (Central Processing) shown by block 422 represents the transmission characteristics of the central nervous system, respectively, as expressed by the following equations (4.32) and (4.33). It is represented by a transfer function.
Here, τ e2 is a time constant of Plant and τ c is a time constant of CP.
Through the processing by these blocks 421 and 422, the perceived information of the angular velocity of the target becomes the target eyeball angular velocity.

4.2.2 PMC(Premotor circuity)
ここは運動前野回路を表している。目標眼球角速度が入力され、現時刻での眼球角速度の運動指令を出力する。眼球角速度の運動指令はフィードバックされ、目標眼球角速度との比較が行われ、誤差信号を形成し、眼球角速度の運動指令を目標値へ近づける働きを担う。ここで、誤差信号は、目標眼球角速度の変化に比例し、したがって、目標眼球角加速度にも比例することを意味する。この誤差信号は、ブロック423(AS;Acceleration Saturation)を経て目標眼球角加速度となる。ブロック423(AS)は加速度飽和を処理する部分であり、閾値より大きい場合と小さい場合に分けて次式(4.44)で表される。
4.2.2 PMC (Premotor circuity)
This represents the premotor circuit. The target eyeball angular velocity is input, and a motion command of the eyeball angular velocity at the current time is output. The motion command of the eyeball angular velocity is fed back, compared with the target eyeball angular velocity, forms an error signal, and serves to bring the motion command of the eyeball angular velocity closer to the target value. Here, the error signal is proportional to a change in the target eyeball angular velocity, and thus is also proportional to the target eyeball angular acceleration. This error signal becomes a target eyeball angular acceleration through a block 423 (AS: Acceleration Saturation). A block 423 (AS) is a part for processing acceleration saturation, and is divided into a case where the threshold value is larger than the threshold value and a case where the acceleration value is smaller than the threshold value, and is represented by the following equation (4.44).

ブロック423(AS)によって算出された目標眼球角加速度は、時間遅れ定数τ2を経て、ブロック424(NI;Neural Integrator)で積分されることで眼球角速度の運動指令となる。ブロック424(NI)は次式(4.45)で示される。但しAは係数である。
The target eyeball angular acceleration calculated by the block 423 (AS) passes through a time delay constant τ 2, and is integrated by a block 424 (NI: Neural Integrator) to become an eyeball angular velocity movement command. The block 424 (NI) is represented by the following equation (4.45). Where A is a coefficient.

4.2.3 眼球角速度出力部分付近
PMCで算出された眼球角速度の運動指令は、時間遅れ定数P1およびブロック425(VS;Velocity Saturation)を経て、遅れを伴った眼球角速度の運動指令となる。しかし、ブロック425(VS)は90deg/s未満では影響がない。実際に追跡眼球運動においては90deg/sを超える眼球角速度は考え難い。したがって、ブロック425(VS)の処理は行っていない。遅れを伴った眼球角速度の運動指令は遠心性コピーとしてCNSにフィードバックされると同時に、ブロック426(Plant)を経て眼球角速度となる。ブロック426(Plant)の伝達関数は、ブロック421(Plant)に係る式(4.32)にゲインを掛けたものである。
4.2.3 Near eyeball angular velocity output
The movement command of the eyeball angular velocity calculated by the PMC becomes a movement command of the eyeball angular velocity with a delay after passing through the time delay constant P1 and the block 425 (Velocity Saturation). However, block 425 (VS) has no effect below 90 deg / s. Actually, it is difficult to imagine an eyeball angular velocity exceeding 90 deg / s in tracking eyeball movement. Therefore, the processing of block 425 (VS) is not performed. The movement command of the eyeball angular velocity with a delay is fed back to the CNS as an efferent copy, and at the same time, becomes the eyeball angular velocity via a block 426 (Plant). The transfer function of the block 426 (Plant) is obtained by multiplying the equation (4.32) related to the block 421 (Plant) by a gain.

以上が追跡眼球運動モデル42の詳細である。なお、このモデルも前庭動眼反射モデル41と同様に周波数領域でのモデルであるため、本実施形態に適応可能な時間領域に変換し、12個の一階常微分方程式を含む数式モデルとした。但し、信号は3次元のベクトルであるので、4種類の微分方程式×3となっている。以下に数式を示しておく。   The details of the tracking eye movement model 42 have been described above. Since this model is also a model in the frequency domain like the vestibular oculomotor reflection model 41, it is converted to a time domain applicable to the present embodiment, and a mathematical model including 12 first-order ordinary differential equations is used. However, since the signal is a three-dimensional vector, there are four types of differential equations × 3. The equations are shown below.

目標眼球角速度および眼球角速度の運動指令は、後述のように共に微分方程式の変数であるので、コンピュータで微分方程式を解く関係上、先ず、これらを用いてPMCのフィードバックループの部分が初めに解ける。誤差信号は次式(4.46)のようになる。
The target eyeball angular velocity and the eyeball angular velocity movement command are both variables of a differential equation, as described later. Therefore, the computer is used to solve the differential equation, so that the PMC feedback loop can be solved first using these. The error signal is as shown in the following equation (4.46).

次にブロック423(AS)によって目標眼球角加速度が次式(4.47)のように求まる。
Next, a target eyeball angular acceleration is obtained by a block 423 (AS) as in the following equation (4.47).

ブロック424(NI)による目標眼球角加速度の積分は次式(4.48)の微分方程式で解け、眼球角速度の運動指令が求まる。
The integration of the target eyeball angular acceleration by the block 424 (NI) is solved by the following differential equation (4.48), and a motion command for the eyeball angular velocity is obtained.

先述したように、ブロック425(VS)は処理しないため、単純に次式(4.49)で表される。
As described above, since the block 425 (VS) is not processed, it is simply represented by the following equation (4.49).

眼球角速度とその運動指令のCNSへのフィードバック部分は次式(4.50)の微分方程式でそれぞれ解ける。
The feedback of the eyeball angular velocity and its motion command to the CNS can be solved by the differential equations of the following equation (4.50).

ここで、ダーゲットの角速度と眼球角速度の誤差信号、および、ダーゲットの角速度の知覚情報は、次式(4.52)および(4.53)でそれぞれ求まる。
Here, the error signal between the angular velocity of the target and the eyeball angular velocity and the perception information of the angular velocity of the target are obtained by the following equations (4.52) and (4.53), respectively.

ダーゲット角速度の知覚情報が求まったので、目標角速度は次式(4.54)の微分方程式で解ける。
Since the perceived information of the target angular velocity has been obtained, the target angular velocity can be solved by the differential equation of the following equation (4.54).

なお、先述したように、式変形の方式および順番は、コンピュータで微分方程式を解く関係から上記のような形とし、以上示したように、追跡眼球運動モデルを時間領域における数式モデルとして扱うことで、本実施形態において適応可能な形式となった。   As described above, the method and order of the equation transformation are as described above from the relation of solving a differential equation by a computer, and as described above, the tracking eye movement model is treated as a mathematical model in the time domain. This is a format applicable in the present embodiment.

4.3 サッカード(Saccade)
サッカードは、随意的に対象物を見ようとして注視点を移動させる際にみられる急速な眼球運動である。サッカードは,一旦眼球運動が起こると、そのサッカードが終わるまで随意的に停止することができないという特徴がある。運動の速度は眼球の回転角度に依存しており、随意的に調節できず、持続時間は振幅に比例して増加する。また、最大速度も運動の振幅に比例して増出して700deg/s程度にまで達するが、10〜20度の振幅では350〜500deg/s程度である。
4.3 Saccade
Saccades are rapid eye movements that occur when the user moves the point of gaze to see an object at will. Saccades are characterized in that once eye movements occur, they cannot be stopped arbitrarily until the saccade ends. The speed of movement is dependent on the angle of rotation of the eyeball, cannot be adjusted at will, and the duration increases in proportion to the amplitude. The maximum speed also increases in proportion to the amplitude of the motion and reaches about 700 deg / s, but is about 350 to 500 deg / s at an amplitude of 10 to 20 degrees.

サッカードをモデリングするに当たり、Tweedによるサッカードモデルを採用した。入力としては、眼球座標系で記述されたターゲットの位置、すなわち視線誤差であり、この視線誤差を最小化するように、眼球5及び頭部31をサッカードの運動則に従い駆動させることでサッカードを実現しているモデルである。なお、このモデルの変数は、主にクォータニオンで扱うことも特徴であり、4×4のクォータニオン行列で表される。このサッカードモデル43のブロック線図を図9に示す。以下、各計算方法について説明する。   In modeling the saccade, a saccade model by Tweed was adopted. The input is a target position described in the eyeball coordinate system, that is, a line-of-sight error. The saccade is obtained by driving the eye 5 and the head 31 according to the saccade motion rule so as to minimize the line-of-sight error. It is a model that realizes. In addition, the feature of this model is that the variables are mainly handled by quaternions, and are represented by a 4 × 4 quaternion matrix. FIG. 9 shows a block diagram of the saccade model 43. Hereinafter, each calculation method will be described.

4.3.1 視線比較器
このサッカードモデル43は、眼球座標系で記述されたターゲット位置Te、すなわち視線誤差を入力とし、これを眼球座標系とターゲットの姿勢が一致するように変化させる。その変化則は、ターゲット位置Teと眼球座標系で記述した空間に対する眼球5の角速度ベクトルωeseとの外積で、次式(4.55)の微分方程式で表される。なお、ωeseは、そのままの形ではなく、この変数を利用可能な形に変換する。
4.3.1 sight comparator this saccade model 43, the target position is written in the eye coordinate system T e, i.e. the line of sight errors as input, alters this as the attitude of the eye coordinate system and the target is coincident . The change rule is a cross product of the angular velocity vector omega ese of eye 5 against the space described by the target position T e and the eyeball coordinate system, represented by the differential equation of the following equation (4.55). Note that ω ese converts this variable into a usable form, not as it is.

ここで,クォータニオンqehは頭部座標系における眼球姿勢であり、ωhshは頭部座標系における頭部31の空間に対しての角速度ベクトルである。並置されたωhshehはベクトルとクォータニオンのクォータニオン積であり、ベクトルはスカラー部要素を0としたクォータニオンとして扱う。 Here, quaternion q eh is eyeball orientation in the head coordinate system, omega hsh is angular velocity vector with respect to the space of the head 31 in the head coordinate system. The juxtaposed ω hsh q eh is a quaternion product of a vector and a quaternion, and the vector is treated as a quaternion with a scalar part element of 0.

4.3.2 Dondersと頭部パルス生成器Ph
先ず、ブロック431(Donders)で目標頭部姿勢が次式(4.56)〜(4.58)から求められる。
4.3.2 Donders and head pulse generator P h
First, in block 431 (Donders), the target head posture is obtained from the following equations (4.56) to (4.58).

式(4.56)は空間座標系における頭部姿勢qhを用いて、頭部座標系における眼球姿勢qehを空間座標系における眼球姿勢qesに座標変換している。次に、眼球姿勢qesを用いて眼球座標系におけるターゲットTeを空間座標系におけるターゲットTsに座標変換している。このTsを用いDondersを経て目標頭部姿勢を算出する。 Formula (4.56) by using a head posture q h in the spatial coordinate system, and the eyeball position q eh in the head coordinate system with the coordinate conversion on the eyeball position q es in the spatial coordinate system. Next, the coordinate transformation into the target T s in the spatial coordinate system of the target T e in the eye coordinate system using the eyeball position q es. Using this T s , a target head posture is calculated via Donders.

ブロック431(Donders)の役割は、ターゲットを見やすい頭部姿勢を定義することである。通常、頭部31は矢状面上より水平面上の方が回転しやすい傾向にあるとされており、これらの要素を考慮した、ターゲット方向からターゲットを見やすい頭部姿勢への変換則をDonders則として、次式(4.59)〜(4.61)の3ステップで定義している。
The role of the block 431 (Donders) is to define a head posture that makes it easy to see the target. Normally, the head 31 tends to rotate more easily on the horizontal plane than on the sagittal plane. In consideration of these factors, the conversion rule from the target direction to the head posture that makes it easier to see the target is called the Donders rule. Are defined in three steps of the following equations (4.59) to (4.61).

ここで、i、j、kはそれぞれ座標系の3つの軸方向に沿った単位ベクトルであり、iは前方、jは左方向、kは上方向を指している。x2、x3はそれぞれベクトルxのj軸に沿った要素、k軸に沿った要素であり、「・」は内積を表している。 Here, i, j, and k are unit vectors along three axis directions of the coordinate system, respectively, where i indicates forward, j indicates leftward, and k indicates upward. x 2 and x 3 are elements along the j-axis and k-axis of the vector x, respectively, and “•” represents an inner product.

式(4.59)について、−Tsとiのクォータニオン積はクォータニオン平方根がとられる。クォータニオン平方根とは、例えばpがqのクォータニオン平方根である時、クォータニオン積pp=qが成り立つ。ここで、pの回転軸はqと等しいが、回転の振幅が半分であるという特性がある。従って、クォータニオンxの意味するところは、ターゲットに対してi方向をとることによって最短回転を表している。 Regarding equation (4.59), the quaternion product of −T s and i is the quaternion square root. The quaternion square root means that, for example, when p is a quaternion square root of q, a quaternion product pp = q holds. Here, the rotation axis of p is equal to q, but has the characteristic that the amplitude of rotation is half. Therefore, the meaning of the quaternion x indicates the shortest rotation by taking the i direction with respect to the target.

上式(4.60)で係数δT、δV、δHでスケーリングし、算出されたyを用いて目標頭部姿勢が求まる。 The target head posture is determined by using the calculated y by performing scaling by the coefficients δ T , δ V , and δ H in the above equation (4.60).

次に、頭部パルス生成器432について、頭部31は頭部姿勢qhの時間変化(時間微分)、つまり速度指令で制御され,次式(4.62)の関数で算出される。
Next, the head pulse generator 432, the head 31 is the time change of the head posture q h (time derivative), i.e. is controlled by the speed command is calculated as a function of the following equation (4.62).

ここで、Vqはクォータニオンのベクトル部をとる関数であり、vと表しなおすと、Phは次式(4.63)で定義される。
Here, V q is a function that takes a vector of the quaternion, the re expressed as v, P h is defined by the following equation (4.63).

パルス生成器432は通常指数関数で定義されることが多いが、ここでは、簡単化のため近似式を用いている。ここで、式(4.62)で表される頭部姿勢の時間変化は、クォータニオン速度であり、角速度ベクトルではない。角速度ベクトルとクォータニオン速度の関係は次式で表される。
Although the pulse generator 432 is usually defined by an exponential function, an approximate expression is used here for simplicity. Here, the temporal change of the head posture represented by Expression (4.62) is a quaternion velocity, not an angular velocity vector. The relationship between the angular velocity vector and the quaternion velocity is expressed by the following equation.

4.3.3 Listing
ブロック433(Listing)は、ターゲットTsから頭部座標系における目標眼球姿勢を算出する部分であり、次式(4.64)で表される。
4.3.3 Listing
Block 433 (Listing) is a portion for calculating a target ocular orientation in the head coordinate system from the target T s, is expressed by the following equation (4.64).

ブロック433(Listing)の関数への引数は、頭部31が目標頭部姿勢となった際のターゲットの相対位置方向を表している。ブロック433(Listing)では先ず引数とgvのクォータニオン積を行う。gvは頭部座標系における主要な視線方向を表しており、gvはiとしている。その後、クォータニオン平方根がとられ、頭部座標系における目標眼球姿勢が求められる。 The argument to the function of the block 433 (Listing) indicates the relative position direction of the target when the head 31 is in the target head posture. In block 433 (Listing) is first performed quaternion product of arguments and g v. g v represents the main gaze direction in the head coordinate system, and g v is i. Thereafter, a quaternion square root is obtained, and a target eye posture in the head coordinate system is obtained.

4.3.4 眼球飽和と眼球パルス生成器
眼球には有効眼球運動範囲(EOMR)があり、サッカードにおいてもその影響を考慮する必要がある。可動限界を超えるところにターゲットが位置している場合、眼球を飽和状態とする、すなわち、目標眼球姿勢をEOMR内にしなければならない。これらのプロセスは次式で示される3ステップで行われる。
4.3.4 Eye saturation and eye pulse generator The eye has an effective eye movement range (EOMR), and its effects need to be considered in saccades. If the target is located beyond the movable limit, the eyeball must be saturated, that is, the target eyeball posture must be within EOMR. These processes are performed in three steps represented by the following equations.

先ず、空間座標系における目標眼球姿勢を求める。式(4.65)は目標頭部姿勢に対しての目標眼球姿勢を示しており、その後、現時点での頭部姿勢qhを用いて、現時点での頭部座標系における目標眼球姿勢を式(4.66)で算出する。 First, a target eyeball posture in a space coordinate system is obtained. Equation (4.65) shows the target eye posture with respect to the target head posture. Thereafter, using the current head posture q h , the target eye posture in the head coordinate system at the present time is expressed by the following formula. It is calculated by (4.66).

ブロック434(Sat)は、過度に偏心した現時点での目標眼球姿勢をEOMR内に投影する。すなわち、式(4.67)で示される有効目標眼球姿勢は、図10の模式図に示されるようにEOMRの境界線上に位置することになる。   Block 434 (Sat) projects the excessively eccentric current target eye posture into the EOMR. That is, the effective target eyeball posture represented by Expression (4.67) is located on the boundary of the EOMR as shown in the schematic diagram of FIG.

ブロック434(Sat)のプロセスは次式(4.68)に示す通りである。
The process of block 434 (Sat) is as shown in the following equation (4.68).

現時点での目標眼球姿勢qeh +の二乗水平垂直偏心αがEOMRの半径radius(=sin(40°/2))の二乗より大きいとき、係数がa,b,cである二次方程式を解くことで、qeh +をEOMRの水平垂直面に投影する。投影された点は、ここではまだ、捩じり方向の次元に対してEOMR外にあるため、次にねじり要素の有効許容値を定めている。signumは引数が正であれば1、負であれば−1、0であれば0を返す関数である。最後の行の式はqeh sをベクトルから単位クォータニオンに変換しており、これがブロック434(Sat)の出力となる。 When the square horizontal and vertical eccentricity α of the current target eye posture q eh + is larger than the square of the radius EOMR radius (= sin (40 ° / 2)), solve a quadratic equation with coefficients a, b, and c Thus, q eh + is projected on the horizontal and vertical planes of the EOMR. Since the projected point is still outside the EOMR with respect to the torsional dimension here, the effective tolerance of the torsion element is now defined. signum is a function that returns 1 if its argument is positive, -1 if its argument is negative, and 0 if it is 0. The equation in the last row converts q eh s from a vector to a unit quaternion, which is the output of block 434 (Sat).

次に、算出された有効目標眼球姿勢qeh sは、眼球パルス生成器435(Pe)で速度指令となる。眼球パルス生成器435(Pe)は、Phと同様に次式(4.69)および(4.70)で示される。ただし、v=qeh seh -1である。
Next, the effective target ocular posture q eh s calculated becomes a speed commanded by the eyeball pulse generator 435 (P e). Ocular pulse generator 435 (P e) is represented by the following formula similar to the P h (4.69) and (4.70). However, it is v = q eh s q eh -1 .

4.3.5 VOR Shutoff
前庭動眼反射(VOR)は反射性の眼球運動であるので、サッカードによる眼球運動へも影響が及ぶ。すなわち、サッカードが生じる際には、前庭動眼反射(VOR)も共に発動しているが、何らかの信号によりシャットアウトされ、サッカードによる眼球運動が支配的になるという特性を持っている。ここでは現時点での頭部座標系における眼球の誤差信号により前庭動眼反射(VOR)がシャットアウトされると仮定している。
4.3.5 VOR Shutoff
The vestibular oculomotor reflex (VOR) is a reflexive eye movement that also affects saccade-induced eye movements. That is, when a saccade occurs, the vestibular oculomotor reflex (VOR) is also activated, but the saccade is shut out by a certain signal, and the saccade causes the eye movement to become dominant. Here, it is assumed that the vestibular oculomotor reflex (VOR) is shut out by the error signal of the eyeball in the current head coordinate system.

なお、ここでいう「VOR」は、サッカード中におけるVORの干渉部分のみを考慮したものであり、先述した前庭動眼反射モデル41(VOR)とは別物である。
ブロック436においてVORの干渉信号は次式(4.71)で処理される。
It should be noted that the “VOR” mentioned here takes into account only the interference part of the VOR during the saccade, and is different from the vestibular oculomotor reflection model 41 (VOR) described above.
In block 436, the VOR interference signal is processed according to the following equation (4.71).

ここで、Mは3×3行列、Iは3×3の単位行列、uuTは列ベクトルuとその転置の行列積による3×3行列である。xは現時点での眼球飽和させていない頭部座標系における眼球運動誤差信号であり、Cは係数でcos(A/2)と定義され、AはVORシャットオフの閾値である。もし、誤差信号がAを超える場合は、VORは完全にシャットオフされる。そして眼球運動誤差信号はAから0に収束する。すなわち、スカラー部x0はCから1に収束する。その後VORは徐々に回復する。ブロック436の処理により、VORの影響を受けたサッカードの眼球運動を表現している。 Here, M is a 3 × 3 matrix, I is a 3 × 3 unit matrix, and uu T is a 3 × 3 matrix by a matrix product of a column vector u and its transpose. x is an eye movement error signal in the head coordinate system in which the eye is not saturated at the present time, C is a coefficient defined as cos (A / 2), and A is a threshold value of VOR shut-off. If the error signal exceeds A, VOR is completely shut off. Then, the eye movement error signal converges from A to 0. That is, the scalar part x 0 converges from C to 1. Then VOR recovers gradually. The processing of block 436 expresses the eye movement of the saccade affected by the VOR.

最終的にサッカードの頭部座標系における眼球速度指令は、有効眼球運動範囲を考慮した眼球速度指令と、ブロック436を経たVORの干渉眼球速度指令の和により次式(4.72)で算出される。
Finally, the eyeball speed command in the head coordinate system of the saccade is calculated by the following equation (4.72) from the sum of the eyeball speed command considering the effective eyeball movement range and the interfering eyeball speed command of the VOR through the block 436. Is done.

5.眼球運動モデルおよび筋骨格モデルの統合
上述した3つの眼球運動は、その指標(ターゲット)や頭部運動などの条件によって適切に選択され、補間し合いながら指標を正確に視認するための最適な眼球運動がなされる。したがって、眼球運動モデル4を構築する上でもこれらの眼球運動モデルを統合し、最終的な眼球運動が生成されるようにし、その上で筋骨格モデル3と総合する。
5. Integration of eye movement model and musculoskeletal model The above-mentioned three eye movements are appropriately selected according to the conditions such as the index (target) and head movement, and are optimal eyeballs for accurately recognizing the index while interpolating each other. Exercise is performed. Therefore, when constructing the eye movement model 4, these eye movement models are integrated so that final eye movement is generated, and then integrated with the musculoskeletal model 3.

基本的には、図6に示すように、前庭動眼反射モデル41には、頭部31の加速度と角速度が入力され、前庭動眼反射による眼球角速度ωVORが出力され、追跡眼運動モデル42にはターゲットの速度、サッカードモデル43にはターゲットと目線の誤差が入力され、追跡眼球運動による眼球角速度ωSmPu、サッカードによる眼球角速度ωSacが出力される。そして、これらが統合され、最終的な眼球角速度ωeyeが出力されるが、これら各眼球モデル41,42,43は単純な加算関係ではない。そこで、各眼球運動モデルの特性を考慮するとともに筋骨格モデル3(31)まで統合したモデルのブロック線図を図11に示す。 Basically, as shown in FIG. 6, the acceleration and angular velocity of the head 31 are input to the vestibular oculomotor reflection model 41, the eyeball angular velocity ω VOR by the vestibular oculomotor reflection is output, and the tracking eye movement model 42 is The target speed and the error between the target and the eye line are input to the saccade model 43, and the eyeball angular velocity ω SmPu by tracking eye movement and the eyeball angular velocity ω Sac by saccade are output. Then, these are integrated and the final eyeball angular velocity ω eye is output, but these eyeball models 41, 42, and 43 do not have a simple addition relationship. FIG. 11 shows a block diagram of a model in which the characteristics of each eye movement model are taken into account and the musculoskeletal model 3 (31) is integrated.

先ず、サッカードモデル43は、眼球座標系における視標方向の単位ベクトル、つまり網膜上の指標との誤差を入力としているため、時間の次元を持っていない。したがって、単純な加算ではシミュレーション時間内においてサッカードが必要な時にサッカードを発生させるといったことが実現できない。そこで、図11では、サッカードのブロック43にたどり着くまでの過程にサッカードが発動する条件を定義し、サッカードの発生をコントロールできるようにしている。   First, the saccade model 43 does not have a time dimension because it receives as input a unit vector in the direction of the target in the eyeball coordinate system, that is, an error with an index on the retina. Therefore, saccades cannot be generated when saccades are required within the simulation time by simple addition. Therefore, in FIG. 11, a condition for saccade activation is defined in the process of arriving at the saccade block 43 so that the occurrence of saccade can be controlled.

すなわち、サッカード43の入力側に所定の条件でONになるスイッチ44を定義し、開始時にはスイッチ44をOFFにして、サッカードの入力となる視線誤差を全くない状態としておき、サッカードモデルの計算を行う。そうすることで、サッカードモデル43の出力は常に0となり、最終的な眼球角速度に影響を及ぼさない。   That is, a switch 44 that is turned on under a predetermined condition is defined on the input side of the saccade 43, and the switch 44 is turned off at the start to leave no line-of-sight error for saccade input. Perform calculations. By doing so, the output of the saccade model 43 is always 0, and does not affect the final eyeball angular velocity.

所定の条件が満たされ、スイッチ44がONとなった場合、その時点での視線誤差の値がサッカードモデル43に入力され、眼球角速度ωSacが出力される。スイッチ44がONになる条件は2つあり、それぞれ、
Sac_trg == ON && Sac_flg == OFF
である。Sac_trgはサッカードの入力トリガ、つまり頭部座標系における視標角速度ベクトルのノルムがあるしきい値を超えたときにONになるトリガである。対して、Sac_flgはサッカードによる眼球各速度指令が1.0(deg/s)以上、つまりサッカード発生中にONになるフラグである。
When the predetermined condition is satisfied and the switch 44 is turned ON, the value of the line-of-sight error at that time is input to the saccade model 43, and the eyeball angular velocity ω Sac is output. There are two conditions under which the switch 44 is turned on.
Sac_trg == ON && Sac_flg == OFF
It is. Sac_trg is a saccade input trigger, that is, a trigger that is turned ON when the norm of the target angular velocity vector in the head coordinate system exceeds a certain threshold. On the other hand, Sac_flg is a flag that is turned on during the occurrence of a saccade when the eyeball speed commands by the saccade are 1.0 (deg / s) or more.

このようなフラグを設定した理由としては、トリガのみでは、サッカード発生中に入力トリガがONになる条件になればサッカード運動が更新されてしまい、本来のサッカード運動と整合性が取れなくなるためである。指標が離散的となる瞬間は1ステップであり、フラグはその次のステップでONになるため、トリガは1ステップのみONになる。   The reason for setting such a flag is that if only the trigger is used, the saccade motion will be updated if the input trigger becomes ON during the occurrence of the saccade, and the saccade motion will not be consistent with the original saccade motion. That's why. The moment when the index is discrete is one step, and the flag is turned on in the next step, so that the trigger is turned on for only one step.

次に、追跡眼球運動については、追跡眼球運動ブロック42の入力側に、前庭動眼反射ブロック41の出力の減算、SMA45、および、ローパスフィルタ46の3つの処理が追加されている。   Next, with respect to the tracking eye movement, three processes of subtraction of the output of the vestibular ocular movement reflection block 41, SMA 45, and low-pass filter 46 are added to the input side of the tracking eye movement block 42.

(SMA(単純移動平均)について)
追跡眼球運動はターゲットの滑らかな動きを追従する運動であるため、パルス入力のようなものには対応できない。追跡眼球運動で対応できないような入力はサッカードがはたらくのだが、サッカードがはたらいているときに追跡眼球運動への入力、もしくは追跡眼球運動からの出力を0にしてしまうと、サッカードが終わった後も不安定な挙動を示してしまう。そこで、サッカード発生中の入力を0にするのではなく、滑らかに補間する方法として単純移動平均(SMA)を用いている。すなわち、サッカードのフラグでONになるスイッチ47を追加し、SMA45に切替えることにより、パルス的な入力が平滑化され、追跡眼球運動ブロック42には、パルス的な入力がなかったのと同義になり、離散的な入力に対してはサッカード43、滑らかな入力に対しては追跡眼球運動42という役割分担が行われる。
(About SMA (Simple Moving Average))
The pursuit eye movement is a movement that follows the smooth movement of the target, and therefore cannot correspond to a pulse input or the like. The saccade works when the input cannot be handled by the tracking eye movement, but if the input to the tracking eye movement or the output from the tracking eye movement is set to 0 while the saccade is working, the saccade ends. Still shows unstable behavior. Therefore, a simple moving average (SMA) is used as a method for smoothly interpolating an input during the occurrence of a saccade, instead of setting the input to 0. That is, by adding the switch 47 which is turned on by the flag of the saccade and switching to the SMA 45, the pulse-like input is smoothed, which is synonymous with the absence of the pulse-like input in the tracking eye movement block 42. In other words, saccades 43 are provided for discrete inputs, and pursuit eye movements 42 are provided for smooth inputs.

(前庭動眼反射出力の減算について)
頭部の運動に対する眼球運動の補間は、前庭動眼反射によって行われるが、これにより追跡眼球運動の入力となる頭部座標系におけるターゲットの角速度は、頭部運動の影響を受ける。例えば、頭部が外乱を受けて高周波で振動している場合、その振動がターゲットの角速度に影響し、本来追従できない高周波帯の入力信号となり、必要以上の眼球角速度を出力してしまう。そのため、頭部が高周波で振動する際に、追跡眼球運動への高周波入力を遮断する必要がある。そこで、追跡眼球運動と前庭動眼反射の間に、前庭動眼反射の眼球速度信号の遠心性コピーを伝達する経路が存在し、追跡眼球運動はその前庭動眼反射の眼球速度信号を用いて、指標速度入力の高周波成分を除去していると仮定した。前庭動眼反射の出力は頭部の揺れをキャンセルするような眼球角速度であるため、単純に指標速度入力から前庭動眼反射41の出力を減算すれば高周波成分を除去することができる。
(About subtraction of vestibular oculomotor reflex output)
The interpolation of the eye movement with respect to the movement of the head is performed by the vestibular oculomotor reflex, whereby the angular velocity of the target in the head coordinate system which is the input of the tracking eye movement is affected by the head movement. For example, if the head vibrates at a high frequency due to a disturbance, the vibration affects the angular velocity of the target, becomes an input signal in a high-frequency band that cannot be tracked originally, and outputs an unnecessary eyeball angular velocity. Therefore, when the head vibrates at a high frequency, it is necessary to cut off the high-frequency input to the tracking eye movement. Therefore, there is a path between the tracking eye movement and the vestibular oculomotor reflex, which transmits an efferent copy of the vestibular oculomotor reflex eye velocity signal. It is assumed that the high frequency components of the input have been removed. Since the output of the vestibular oculomotor reflection is an eyeball angular velocity that cancels the shaking of the head, high frequency components can be removed by simply subtracting the output of the vestibular oculomotor reflection 41 from the index velocity input.

(ローパスフィルタについて)
上記のように前庭動眼反射41の出力を減算することによって、本来追跡眼球運動で追跡すべき視標角速度の低周波成分が明確になるため、この信号に対してローパスフィルタ46をかけることによって、高周波成分を除去した入力信号のみが追跡眼球運動モデル42に入力されることになる。
(About low pass filter)
By subtracting the output of the vestibular oculomotor reflection 41 as described above, the low-frequency component of the target angular velocity that should originally be tracked by the tracking eye movement becomes clear, and by applying a low-pass filter 46 to this signal, Only the input signal from which the high-frequency component has been removed is input to the tracking eye movement model 42.

(サッカードによる位置誤差の修正)
以上のような処理を行うことによって、頭部が振動した状態やサッカードがはたらいた状態でも各眼球運動モデルが補完しあって視標を追従できるが、フィルタ処理などの影響で位相ずれやオーバーシュートが起きる場合がある。追跡眼球運動は速度誤差に基づいて制御を行うので,位置誤差に対しては反応できない。そこで、位置誤差を入力とするサッカード43を用いて、指標と視線の位置ずれを修正することができる。例えば、先述のトリガとは別のトリガを定義し、眼球座標系における視標の位置ベクトルの長さがしきい値(例えば0.1m)より大きくなった場合にサッカード43がONになるようにする。
(Correction of position error by saccade)
By performing the processing described above, the eye movement models complement each other even when the head is vibrating or the saccade is working, so that the target can be tracked. Shoots may occur. Since the tracking eye movement is controlled based on the velocity error, it cannot respond to the position error. Therefore, the positional deviation between the index and the line of sight can be corrected using the saccade 43 having the position error as an input. For example, a trigger different from the above-described trigger is defined, and the saccade 43 is turned on when the length of the position vector of the target in the eyeball coordinate system becomes larger than a threshold value (for example, 0.1 m). .

6.眼球運動モデルと筋骨格モデルの統合
図11のブロック線図において、眼球運動モデル4からの出力は、大きく分けて、眼球の角速度ωeyeと頭部への角速度指令ωhaがある。以下、それぞれの出力に基づいた眼球運動と身体運動との連成メカニズムについて説明する。
6. Integration of Eye Movement Model and Musculoskeletal Model In the block diagram of FIG. 11, the output from the eye movement model 4 is roughly divided into an angular velocity ω eye of the eyeball and an angular velocity command ω ha to the head. Hereinafter, a coupled mechanism of eye movement and body movement based on each output will be described.

6.1 眼球運動モデルからの頭部角速度指令
追跡眼球運動モデル42とサッカードモデル43から出力される頭部31への角速度指令は加算され、頭部31の眼球運動に伴う能動的な角速度指令ωhaとして、筋骨格モデル3の頭部31に入力される。したがって、この運動指令ωhaを目標値とし、意志力として逆モデルの計算に取り込むことで、眼球運動に伴う能動的な頭部運動を生成できる。
6.1 Head angular velocity command from eye movement model The angular velocity command to the head 31 output from the tracking eye movement model 42 and the saccade model 43 is added, and an active angular velocity command accompanying the eye movement of the head 31 is added. as ω ha, it is input to the head 31 of the musculoskeletal model 3. Therefore, by taking this movement command ωha as a target value and incorporating it into the calculation of the inverse model as a willingness, an active head movement accompanying the eyeball movement can be generated.

これらは回転運動であるため、意志モーメントとして次式(6.1)で算出される。
したがって、筋骨格モデル3の頭部31は、身体30の運動に応じた姿勢保持のための運動指令に加えて、眼球運動モデル4による能動的な頭部運動指令の生成を行うことが可能となる。
Since these are rotational motions, they are calculated as the will moments by the following equation (6.1).
Therefore, the head 31 of the musculoskeletal model 3 can generate an active head movement command by the eyeball movement model 4 in addition to the movement command for maintaining the posture corresponding to the movement of the body 30. Become.

身体運動(30)に対する受動的な頭部運動(31)、および、眼球運動(4)に伴う能動的な頭部運動に基づいて筋骨格モデル3の頭部31からは前庭動眼反射モデル41への入力となる加速度、角速度など頭部運動が得られる。しかし、このままでは、他の眼球運動モデル42,43により動作する頭部運動分に対しても前庭動眼反射が起こり、所望の視線回転方向をキャンセルしてしまうことになる。そこで、他の眼球運動42,43から発せられた能動的な頭部運動指令の遠心性コピーが前庭動眼反射モデル41に伝達されると仮定することで、実際の頭部運動から能動的な頭部運動を除いた分のみに対して、つまり受動的に発生した頭部運動のみに対して前庭動眼反射が起こり、能動的な頭部運動への干渉が回避される。   From the head 31 of the musculoskeletal model 3 to the vestibular oculomotor reflex model 41 based on the passive head movement (31) for the body movement (30) and the active head movement accompanying the eye movement (4) Of the head, such as acceleration and angular velocity, can be obtained. However, in this state, the vestibular oculomotor reflex occurs for the head movements operated by the other eye movement models 42 and 43, and the desired gaze rotation direction is canceled. Therefore, by assuming that the efferent copy of the active head movement command issued from the other eye movements 42 and 43 is transmitted to the vestibular oculomotor reflex model 41, the active head movement is calculated from the actual head movement. The vestibular oculomotor reflex occurs only for the part excluding the head movement, that is, only for the passively generated head movement, thereby avoiding interference with active head movement.

6.2 眼球の角速度
次に、眼球運動モデル4から眼球5に出力される角速度ωeyeは、その大きさがそのまま眼球運動の運動負荷に相当する。したがって、筋骨格モデル3の式(3.7)に示した眼球運動負荷feyeを次式(6.2)のように定義することができる。
ここで、ωeyeはベクトルのノルムを用い、Tgは眼球座標から見たターゲットの位置ベクトル、exは眼球座標のx軸ベクトル(ex=(1 0 0)T)、λは重み係数である。
6.2 Angular Velocity of Eyeball Next, the magnitude of the angular velocity ω eye output from the eyeball movement model 4 to the eyeball 5 directly corresponds to the movement load of the eyeball movement. Therefore, the eye movement load f eye of the musculoskeletal model 3 shown in the equation (3.7) can be defined as the following equation (6.2).
Here, omega eye uses a norm of a vector, T g is the position vector of the target as seen from the eye coordinates, e x is the x-axis vector of the eyeball coordinate (e x = (1 0 0 ) T), λ is a weighting factor It is.

上式(6.2)の第一項は眼球運動を抑制する機能を有し、第二項はできるだけ注視点近くでターゲットを捉えるようにする機能を表している。この眼球運動負荷feyeを、先述した逆モデルベースの運動指令生成における式(3.7)に示すように、身体運動負荷に加えることで、眼球運動と身体運動の連成運動を生成可能となる。 The first term of the above equation (6.2) has a function of suppressing eye movement, and the second term represents a function of catching a target as close as possible to the gazing point. By adding this eye movement load f eye to the body movement load as shown in the above-described formula (3.7) in the inverse model-based movement command generation, a coupled movement of the eye movement and the body movement can be generated. Become.

7.視認性評価システムの処理フロー
以上述べたように、本発明に係る評価システム1は、生体力学モデル10を利用して評価対象データ2における視認目標点20の確認動作のシミュレーションを行い、確認動作の容易性(負担度)を考慮した視認性を評価するものであり、図12は、実施形態に係る評価システム1の処理フローを示すフローチャートである。
7. Process Flow of Visibility Evaluation System As described above, the evaluation system 1 according to the present invention simulates the operation of confirming the visibility target point 20 in the evaluation target data 2 using the biomechanical model 10, and performs the confirmation operation. FIG. 12 is a flowchart illustrating a processing flow of the evaluation system 1 according to the embodiment, which evaluates visibility in consideration of ease (burden).

また、先述したように、評価システム1は、独立して動作しながら連成する生体力学モデル10と視野判断モデル50から構成されており、図13は、実施形態に係る評価システム1の処理フローを、生体力学モデル10における処理(確認動作シミュレーション)と視野判断モデル50における処理(視認性判断)に分けて記載している。   Further, as described above, the evaluation system 1 is composed of the biomechanical model 10 and the visual field determination model 50 that are coupled while operating independently, and FIG. 13 is a processing flow of the evaluation system 1 according to the embodiment. Are divided into a process in the biomechanical model 10 (confirmation operation simulation) and a process in the visual field determination model 50 (visibility determination).

図12において100番台で示された各ステップの符号の下2桁は、図13において200番台および300番台で示された各ステップの符号の下2桁に対応しており、以下、図12、図13を併用して評価システム1の処理フローについて説明する。   The lower two digits of each step shown in the 100s in FIG. 12 correspond to the lower two digits of each step shown in the 200s and 300s in FIG. The processing flow of the evaluation system 1 will be described with reference to FIG.

視認性評価に際しては、先ず、評価システム1を構成するコンピュータが起動し、シミュレーションを統括するメインプログラム(1)とデータベース8が起動している状態で、生体力学モデル10および視野判断モデル50が起動される(ステップ100,200,300)。   At the time of the visibility evaluation, first, the computer constituting the evaluation system 1 is activated, and the biomechanical model 10 and the visual field judgment model 50 are activated in a state where the main program (1) for controlling the simulation and the database 8 are activated. (Steps 100, 200, and 300).

次いで、シミュレーションデータ80の入力情報に従って、所定の評価対象データ2が視野判断モデル50の3Dデータ空間に読み込まれ、評価対象データ2の視認目標点20が生体力学モデル10に取得される(ステップ101,201,301)。   Next, in accordance with the input information of the simulation data 80, the predetermined evaluation target data 2 is read into the 3D data space of the visual field determination model 50, and the viewing target point 20 of the evaluation target data 2 is acquired by the biomechanical model 10 (Step 101). , 201, 301).

次いで、視野判断モデル50において、評価対象データ2の視認目標点20にグラデーション球21が設定される(ステップ102,302)。グラデーション球21自体のデータは予め視野判断モデル50に用意されており、グラデーション球21の中心座標が視認目標点20に設定される。   Next, in the visual field determination model 50, the gradation sphere 21 is set at the visual recognition target point 20 of the evaluation target data 2 (Steps 102 and 302). The data of the gradation sphere 21 itself is prepared in the visual field determination model 50 in advance, and the center coordinates of the gradation sphere 21 are set to the viewing target point 20.

次いで、シミュレーションデータ80から姿勢情報が読み込まれ、生体力学モデル10の筋骨格モデル3および眼球運動モデル4に初期姿勢が生成され、視野判断モデル50の人体モデル53に初期姿勢が反映されるとともに、カメラ55の初期位置が取得される(ステップ103,203,303)。この状態でカメラ55より視野画像が取得され、視認度の初期値R0が算出される。 Next, posture information is read from the simulation data 80, an initial posture is generated in the musculoskeletal model 3 and the eye movement model 4 of the biomechanical model 10, and the initial posture is reflected in the human body model 53 of the visual field judgment model 50, and The initial position of the camera 55 is obtained (steps 103, 203, 303). In this state, a field-of-view image is acquired from the camera 55, and an initial value R 0 of visibility is calculated.

以上のような準備を経て、摂動/挙動プロセスに移行すると、先ず、逆モデルベースの運動指令生成モジュール12および順モデルベースの運動制御モジュール13において、それぞれの状態変数が算出される(ステップ110,210,310)。   When the process shifts to the perturbation / behavior process through the above preparation, first, the state variables are calculated in the inverse model-based motion command generation module 12 and the forward model-based motion control module 13 (step 110, step 110). 210, 310).

次に、運動指令生成モジュール12における逆動力学計算によって関節駆動モーメントが算出され、さらに、運動制御モジュール13における順動力学計算によって加速度が計算され、加速度を時間積分して単位時間(実施例では0.1秒)後の姿勢が推定される。このようにして生体力学モデル10に摂動を与え、得られた姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)、および、身体力学系へ作用させる関節駆動モーメント(身体負荷)が負担度Bとして、状態変数と共に摂動データ82に格納される(ステップ111,211)。   Next, the joint drive moment is calculated by the inverse dynamics calculation in the motion command generation module 12, the acceleration is calculated by the forward dynamics calculation in the motion control module 13, and the acceleration is integrated over time to obtain a unit time (in the embodiment, for example). The posture after 0.1 second) is estimated. The perturbation is given to the biomechanical model 10 in this way, and the obtained posture information (the skeleton link posture and the eyeball posture, all of which are quaternions) and the joint driving moment (body load) acting on the body mechanical system are the burden B Are stored in the perturbation data 82 together with the state variables (steps 111 and 211).

さらに、上記摂動により得られた姿勢情報は視野判断モデル50の人体モデル53およびカメラ55に反映され(図13、ステップ311)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ112,312)、摂動データ82に格納される。   Further, the posture information obtained by the perturbation is reflected on the human body model 53 of the visual field judgment model 50 and the camera 55 (FIG. 13, step 311), and the visibility R is calculated as the sum of the R values of the visual field images acquired by the camera 55. Is calculated (steps 112 and 312) and stored in the perturbation data 82.

上記のような摂動プロセスが状態変数の数だけ繰り返され、全ての状態変数の摂動が与えられると(ステップ113,213)、挙動プロセスに移行する。   The above-described perturbation process is repeated by the number of state variables, and when the perturbation of all the state variables is given (steps 113 and 213), the process proceeds to the behavior process.

先ず、摂動プロセスにおいて負担度Bおよび視認度Rが取得された各状態変数の中から、最小負担度Bmin(身体負荷最小化)と最大視認度Rmaxとなる状態変数が算出され、対応する関節駆動モーメントが決定される(ステップ120,220)。 First, among the state variables for which the burden B and the visibility R have been acquired in the perturbation process, the state variables that provide the minimum burden B min (minimization of physical load) and the maximum visibility R max are calculated and corresponded. A joint drive moment is determined (steps 120, 220).

次いで、決定された状態変数および関節駆動モーメントによって生体力学モデル10(筋骨格モデル3および眼球運動モデル4)が実際に駆動され、挙動による姿勢が生成され、挙動データ81に姿勢情報(骨格リンク姿勢、眼球姿勢、何れもクォータニオン)が格納される(ステップ121,221)。   Next, the biomechanical model 10 (the musculoskeletal model 3 and the eye movement model 4) is actually driven by the determined state variables and the joint driving moment, and a posture based on the behavior is generated. , Eyeball posture, quaternion) are stored (steps 121 and 221).

さらに、上記挙動による姿勢情報が視野判断モデル50の人体モデル53およびカメラ55に反映され(図13、ステップ321)、カメラ55に取得された視野画像のR値の合計として視認度Rが算出され(ステップ122,322)、挙動データ81に格納される。また、人体モデル53の姿勢情報がキーフレームに登録される(図13、ステップ324)。   Further, the posture information based on the behavior is reflected on the human body model 53 of the visual field judgment model 50 and the camera 55 (FIG. 13, step 321), and the visibility R is calculated as the sum of the R values of the visual field images acquired by the camera 55. (Steps 122 and 322) are stored in the behavior data 81. In addition, the posture information of the human body model 53 is registered in the key frame (FIG. 13, step 324).

これと並行してデータベース8において、当該挙動プロセスを含めた負担度Bの積算値が算出され、上記視認度Rを参照して、負担度B(積算値)を考慮した易視認性が算出される(ステップ222)。   In parallel with this, the integrated value of the burden B including the behavior process is calculated in the database 8, and the visibility is calculated with reference to the visibility R in consideration of the load B (integrated value). (Step 222).

次いで、視認度Rが予め設定した閾値と比較され(ステップ130,230,330)、閾値に到達していないと判断された場合は、上述したような摂動/挙動プロセスが繰り返される。   Next, the visibility R is compared with a preset threshold (steps 130, 230, 330), and if it is determined that the threshold has not been reached, the perturbation / behavior process as described above is repeated.

視認度Rが予め設定した閾値以上となった場合は、生体力学モデル10によるシミュレーションは終了され、当該視認度Rと、最終挙動プロセスにおいて算出された負担度B(積算値)を考慮した易視認性評価が、当該シミュレーション(試行No)における結果として、シミュレーションデータ80に記録される(図13、ステップ231)。   When the visibility R is equal to or greater than a preset threshold, the simulation using the biomechanical model 10 is terminated, and the visibility is easily considered in consideration of the visibility R and the burden B (integrated value) calculated in the final behavior process. The sex evaluation is recorded in the simulation data 80 as a result of the simulation (trial No) (FIG. 13, step 231).

同時に、視野判断モデル50では、最終挙動プロセスまでに登録されたキーフレーム(実施例では0.1秒間隔、10fps)のデータに基づいてレンダリングが実行され、評価映像が作成される(図13、ステップ331)。   At the same time, in the visual field judgment model 50, the rendering is executed based on the data of the key frames (0.1 second interval, 10 fps in the embodiment) registered up to the final behavior process, and an evaluation image is created (FIG. 13, FIG. Step 331).

なお、レンダリングに際しては、キーフレーム間の身体運動は動画作成機能により補間される。また、評価対象データ2(インストルメントパネル)や人体モデル53の表面情報が反映されるようにするか、または、グレースケールなどにして視認目標点20の位置が明確になるようにしても良い。カメラ55(人体モデル53)による視野映像のほかに、人体モデル53の斜後上方など適宜位置に設定した外部視点からの映像を作成できる。   At the time of rendering, the body motion between key frames is interpolated by the moving image creation function. Alternatively, the evaluation target data 2 (instrument panel) or the surface information of the human body model 53 may be reflected, or the position of the viewing target point 20 may be clarified by using a gray scale or the like. In addition to the visual field image obtained by the camera 55 (human body model 53), an image can be created from an external viewpoint set at an appropriate position such as a position obliquely above the human body model 53.

上記実施形態の摂動プロセス(ステップ111〜112、211、311〜312)において、生体力学モデル10に得られた姿勢情報を1回の摂動ごとに視野判断モデル50の人体モデル53およびカメラ55に反映し、視野画像から視認度Rを算出する代わりに、生体力学モデル10にて全ての(または一部の)状態変数分の姿勢情報を取得してから視野判断モデル50に一括して転送し、視野画像取得および視認度R算出を行うようにすることもできる。   In the perturbation process (steps 111 to 112, 211, 311 to 312) of the above embodiment, the posture information obtained in the biomechanical model 10 is reflected on the human body model 53 and the camera 55 of the visual field judgment model 50 for each perturbation. Then, instead of calculating the visibility R from the visual field image, the posture information for all (or a part of) the state variables is obtained in the biomechanical model 10 and then transferred to the visual field determination model 50 collectively. Obtaining the view image and calculating the visibility R may be performed.

また、上記実施形態の摂動プロセス(ステップ111〜112、211、311〜312)では、生体力学モデル10に状態変数の数だけ摂動が与えられる場合について述べたが、状態変数よりも少ない複数回の摂動を与えることによって、最小負担度Bmin(身体負荷最小化)と最大視認度Rmaxとなる状態変数を推定し、挙動のための関節駆動モーメントを決定するようにすることもできる。 In the perturbation process (steps 111 to 112, 211, 311 to 312) of the above-described embodiment, a case where perturbation is given to the biomechanical model 10 by the number of state variables has been described. By giving a perturbation, it is also possible to estimate a state variable having a minimum burden B min (minimizing physical load) and a maximum visibility R max, and determine a joint driving moment for behavior.

また、上記実施形態では、視認度Rが予め設定した閾値以上となるまで摂動/挙動プロセスが反復される場合について述べたが、摂動/挙動プロセスの反復回数(または反復時間)に上限を設け、予め設定した所定回数(所定時間)に達した時点で生体力学モデル10によるシミュレーションが終了するようにすることもできる。   Further, in the above-described embodiment, the case where the perturbation / behavior process is repeated until the visibility R becomes equal to or greater than a preset threshold has been described. However, an upper limit is provided for the number of repetitions (or repetition time) of the perturbation / behavior process. The simulation by the biomechanical model 10 may be ended when a predetermined number of times (predetermined time) is reached.

一方、摂動/挙動プロセスの反復による視認度Rの向上により、運動指令生成モジュール12に算出される関節駆動モーメントが漸減し、運動制御モジュール13に算出される加速度が漸減することにより、何れかの状態値(またはその変化率)が設定以下になった時点で、生体力学モデル10による確認動作が自律的に収束したと見做してもよい。   On the other hand, by improving the visibility R by repeating the perturbation / behavior process, the joint drive moment calculated by the motion command generation module 12 gradually decreases, and the acceleration calculated by the motion control module 13 gradually decreases. When the state value (or the rate of change thereof) becomes equal to or less than the setting, the confirmation operation by the biomechanical model 10 may be regarded as autonomously converging.

上記実施形態では、生体力学モデル10において、初期姿勢から1つの視認目標点20の確認動作をシミュレートする場合を示したが、複数の視認目標点を順に確認する動作をシミュレートして総合的な視認性を評価することもできる。   In the above-described embodiment, the case of simulating the operation of confirming one viewing target point 20 from the initial posture in the biomechanical model 10 has been described. High visibility can also be evaluated.

本発明の好適な態様において、前記統括制御部(11)は、
前記生体力学モデルに摂動を与え、その姿勢にて前記視認目標点に対する視認度を算出するとともに、前記摂動に伴う前記生体力学モデルの負担度を算出し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作を実行する機能を有し、前記負担度の積算値と前記視認度の最終値から易視認性を算出する。
In a preferred aspect of the present invention, the general control unit (11) includes:
A behavior in which a perturbation is given to the biomechanical model, the degree of visibility of the biomechanical model associated with the perturbation is calculated in the posture, and the degree of burden of the biomechanical model is calculated in accordance with the perturbation. Has a function of performing an operation of generating a posture, and calculates the visibility from the integrated value of the burden and the final value of the visibility.

本発明の好適な態様において、前記統括制御部(11)は、
前記生体力学モデルに摂動を与える運動指令生成手段、および、前記摂動に伴う前記生体力学モデルの負担度を算出する手段を含み、前記視認度および負担度の算出を含む摂動プロセスを複数回試行し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する摂動/挙動プロセスの反復操作を行う。
In a preferred aspect of the present invention, the general control unit (11) includes:
Exercise command generating means for perturbing the biomechanical model, and means for calculating the burden of the biomechanical model accompanying the perturbation, a plurality of trials perturbation process including the calculation of the visibility and burden And performing a repetitive operation of a perturbation / behavior process for generating a posture with a behavior having a minimum burden and a maximum visibility.

本発明の好適な態様において、前記統括制御部(11)は、
前記生体力学モデルに摂動を与えるステップ、前記摂動による姿勢にて前記視認目標点に対する視認度を算出するステップ、および、前記摂動に伴う前記生体力学モデルの負担度を算出するステップ、を含む摂動プロセスを複数回試行し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する摂動/挙動プロセスの反復操作を行う。
In a preferred aspect of the present invention, the general control unit (11) includes:
A perturbation process including the steps of: providing a perturbation to the biomechanical model; calculating visibility with respect to the viewing target point in a posture caused by the perturbation; and calculating a burden of the biomechanical model accompanying the perturbation. Is performed a plurality of times, and a repetitive operation of a perturbation / behavior process for generating a posture with a behavior having a minimum burden and a maximum visibility is performed.

以上、本発明の実施形態について述べたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的思想に基づいてさらに各種の変形および変更が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications and changes can be made based on the technical idea of the present invention.

例えば、上記実施形態では、車両のインストルメントパネルを評価対象データ2とし、その右側下部にあるスイッチを視認目標点20とする場合について述べたが、本発明はこれに限定されるものではなく、視認目標点は他の位置であっても良いし、インストルメントパネル以外を評価対象データとすることもできる。また、着座姿勢以外の起立姿勢や歩行姿勢、車両乗降時の視認目標点の確認動作など、確認動作を伴って視認することが想定される様々な物品の易視認性評価や設計支援に応用できる。   For example, in the above embodiment, the case where the instrument panel of the vehicle is used as the evaluation target data 2 and the switch at the lower right side is used as the visual recognition target point 20 has been described. However, the present invention is not limited to this. The viewing target point may be another position, or data other than the instrument panel may be used as evaluation target data. In addition, the present invention can be applied to evaluation of easy visibility and design support of various articles which are expected to be visually recognized with a confirming operation, such as a standing posture other than a sitting posture, a walking posture, and a confirming operation of a visually recognizable target point when getting on and off the vehicle. .

1 評価システム
2 評価対象データ(インストルメントパネル)
3 筋骨格モデル(身体モデル)
4 眼球運動モデル
5 眼球
6 支持構造(シート)
7 支持構造(ハンドル)
8 データベース
10 生体力学モデル
11 統括制御部
12 逆モデルベースの運動指令生成モジュール
13 順モデルベースの運動制御モジュール
14 運動規範ポテンシャル
15 視認度
16 負担度
17 易視認性総合評価部
20 視認目標点
21 グラデーション球
30 身体
31 頭部
50 視野判断モデル
51 判断処理部
53 人体モデル
55 カメラ
1 Evaluation system 2 Evaluation target data (instrument panel)
3 Musculoskeletal model (body model)
4 Eye movement model 5 Eye 6 Support structure (sheet)
7 Support structure (handle)
Reference Signs List 8 Database 10 Biomechanical model 11 Overall control unit 12 Reverse model-based motion command generation module 13 Forward model-based motion control module 14 Motion reference potential 15 Visibility 16 Burden 17 Easy-visibility comprehensive evaluation unit 20 Visual target point 21 Gradation Sphere 30 body 31 head 50 visual field judgment model 51 judgment processing unit 53 human body model 55 camera

Claims (7)

3DCADによるオブジェクトのための視認性評価システムであって、
前記オブジェクトおよびその視認目標点が定義された仮想3D空間において前記視認目標点に対する確認動作のシミュレーションを行うための生体力学モデルと、
前記生体力学モデルの視線における視野画像において前記視認目標点に対する視認度を算出するための視野判断モデルと、
前記生体力学モデルに摂動を与え、その姿勢にて前記視認目標点に対する視認度を算出するとともに、前記摂動に伴う前記生体力学モデルの負担度を算出し、最小負担度かつ最大視認度となる挙動にて姿勢を生成する操作を実行することにより、前記生体力学モデルと前記視野判断モデルを連成させる統括制御部と、
を備え、前記負担度の積算値と前記視認度の最終値から易視認性を算出するように構成されている、視覚性評価システム。
A visibility evaluation system for an object by 3D CAD,
A biomechanical model for simulating a confirmation operation on the visual target in the virtual 3D space in which the object and the visual target are defined;
A visual field determination model for calculating the visibility of the visual target in the visual field image in the line of sight of the biomechanical model,
A behavior in which a perturbation is given to the biomechanical model, the degree of visibility of the biomechanical model associated with the perturbation is calculated in the posture, and the degree of burden of the biomechanical model is calculated in accordance with the perturbation. An overall control unit that couples the biomechanical model and the visual field determination model by performing an operation of generating a posture at
And a visibility evaluation system configured to calculate easy visibility from the integrated value of the burden and the final value of the visibility.
前記生体力学モデルは、人体の骨格、関節、および骨格筋をモデリングした筋骨格モデルと、前記筋骨格モデルにおける頭部運動に連成して眼球姿勢を決定する眼球運動モデルとを含み、前記眼球姿勢によって前記視線が与えられるように構成されている、請求項1記載の視認性評価システム。   The biomechanical model includes a musculoskeletal model that models the skeleton, joints, and skeletal muscles of a human body, and an eyeball movement model that determines an eyeball posture in conjunction with head movement in the musculoskeletal model, The visibility evaluation system according to claim 1, wherein the line of sight is given by a posture. 前記摂動プロセスが前記生体力学モデルの状態変数の数だけ試行されるように構成されている、請求項1または2記載の視認性評価システム。   The visibility evaluation system according to claim 1, wherein the perturbation process is configured to be tried by the number of state variables of the biomechanical model. 前記視野判断モデルは、仮想3D空間に前記視認目標点を放射状に拡大した透明な立体であって、前記視認目標点からの距離に応じて特定ピクセル情報値のみを減少または漸減させたグラデーション立体を定義し、前記視認度として、前記視野画像における前記特定ピクセル情報値の合計を算出するように構成されている、請求項1〜3の何れか一項記載の視認性評価システム。   The visual field judgment model is a transparent solid body in which the visual target point is radially enlarged in a virtual 3D space, and a gradation solid body in which only a specific pixel information value is reduced or gradually reduced according to a distance from the visual target point. The visibility evaluation system according to any one of claims 1 to 3, wherein the visibility evaluation system is configured to define and calculate a sum of the specific pixel information values in the visual field image as the visibility. 前記グラデーション立体は単一の色調を有し、前記特定ピクセル情報値は前記単一の色調の輝度であり、前記グラデーション立体は、中心側の輝度が大きく、中心側から周辺側に向かって輝度が減少または漸減している、請求項4記載の視認性評価システム。   The gradation solid has a single color tone, the specific pixel information value is the luminance of the single color tone, and the gradation solid has a large luminance on the center side and a luminance from the center side toward the peripheral side. 5. The visibility evaluation system according to claim 4, wherein the visibility evaluation system decreases or gradually decreases. 前記視野判断モデルは、前記グラデーション立体以外のオブジェクトは全て黒色かつ不透明とした状態で前記視野画像を取得し、前記視野画像内における前記特定色の輝度値の合計をとることによって、前記視認度を算出するように構成されている、請求項5記載の視認性評価システム。   The visual field determination model acquires the visual field image in a state where all objects other than the gradation solid are black and opaque, and calculates the total visibility value of the specific colors in the visual field image, thereby obtaining the visibility. The visibility evaluation system according to claim 5, wherein the visibility evaluation system is configured to calculate. 前記グラデーション立体は、前記視認目標点を中心とするグラデーション球である、請求項4〜6の何れか一項記載の視認性評価システム。   The visibility evaluation system according to any one of claims 4 to 6, wherein the gradation solid is a gradation sphere centered on the viewing target point.
JP2018171755A 2018-09-13 2018-09-13 Visibility evaluation system Active JP7120572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018171755A JP7120572B2 (en) 2018-09-13 2018-09-13 Visibility evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018171755A JP7120572B2 (en) 2018-09-13 2018-09-13 Visibility evaluation system

Publications (2)

Publication Number Publication Date
JP2020042734A true JP2020042734A (en) 2020-03-19
JP7120572B2 JP7120572B2 (en) 2022-08-17

Family

ID=69798460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018171755A Active JP7120572B2 (en) 2018-09-13 2018-09-13 Visibility evaluation system

Country Status (1)

Country Link
JP (1) JP7120572B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709091A (en) * 2020-06-19 2020-09-25 广州电力机车有限公司 Visual field checking method for mining dump truck
CN113297734A (en) * 2021-05-21 2021-08-24 南京邮电大学 Visual cone-based simulation evaluation method for assembly process in limited space

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240791A (en) * 1997-02-27 1998-09-11 Fujitsu Ltd Equipment operability evaluation support device
JP2001160077A (en) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd Action simulation device and space-evaluating device
JP2008140139A (en) * 2006-12-01 2008-06-19 Mazda Motor Corp Vehicle planning support system, vehicle planning support program, and vehicle planning assistance method
JP2013189055A (en) * 2012-03-13 2013-09-26 Denso It Laboratory Inc Design support device, control method thereof, and program
JP2013246663A (en) * 2012-05-25 2013-12-09 Mazda Motor Corp Design support system for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240791A (en) * 1997-02-27 1998-09-11 Fujitsu Ltd Equipment operability evaluation support device
JP2001160077A (en) * 1999-12-02 2001-06-12 Osaka Gas Co Ltd Action simulation device and space-evaluating device
JP2008140139A (en) * 2006-12-01 2008-06-19 Mazda Motor Corp Vehicle planning support system, vehicle planning support program, and vehicle planning assistance method
JP2013189055A (en) * 2012-03-13 2013-09-26 Denso It Laboratory Inc Design support device, control method thereof, and program
JP2013246663A (en) * 2012-05-25 2013-12-09 Mazda Motor Corp Design support system for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709091A (en) * 2020-06-19 2020-09-25 广州电力机车有限公司 Visual field checking method for mining dump truck
CN113297734A (en) * 2021-05-21 2021-08-24 南京邮电大学 Visual cone-based simulation evaluation method for assembly process in limited space
CN113297734B (en) * 2021-05-21 2024-03-29 南京邮电大学 Visual cone-based simulation evaluation method for assembly process in limited space

Also Published As

Publication number Publication date
JP7120572B2 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
US6741911B2 (en) Natural robot control
US20070016265A1 (en) Method and system for training adaptive control of limb movement
JP2015523544A (en) Real-time detection of posture and movement in the execution of operational tasks
JP7646214B2 (en) Deep Learning of Biometric Sensorimotor Control for Biomechanical Model Animation
Otani et al. Generating assistive humanoid motions for co-manipulation tasks with a multi-robot quadratic program controller
JP7120572B2 (en) Visibility evaluation system
Brogan et al. Simulation level of detail for multiagent control
Hettich et al. Human-like sensor fusion mechanisms in a postural control robot
JP4463120B2 (en) Imitation robot system and its imitation control method
Mohammadi et al. 3D-printed programmable bistable mechanisms for customized wearable devices in tremor attenuation
Fröhner et al. An embodiment paradigm in evaluation of human-in-the-loop control
JP7107529B2 (en) Visibility evaluation system
JP7108986B2 (en) Visibility evaluation system
Nicolas et al. From bone to plausible bipedal locomotion using inverse kinematics
Bottin-Noonan et al. Model based evaluation of human and lower-limb exoskeleton interaction during sit to stand motion
Wang et al. A Human-In-The-Loop Simulation Framework for Evaluating Control Strategies in Gait Assistive Robots
Pineda Rico The WAM arm: modelling, control and its application in a HMI based on gaze tracking
McKenna et al. Dynamic simulation of a complex human figure model with low level behavior control
EP3484364B1 (en) Method and system for the hierarchical control in real time of an articulated structure utilising a limited number of movement sensors
JP7776586B2 (en) Apparatus, process, and computer program for simulating mammalian physiological behavior using virtual mammals
Blanchet Development of a Procedure to Optimize the Geometric and Dynamic Designs of Assistive Upper Limb Exoskeletons
JP2024016491A (en) Visibility evaluation system
JP2024016492A (en) Visibility evaluation system
Nakada et al. Deep learning of neuromuscular and visuomotor control of a biomimetic simulated humanoid
Li et al. Exoskeleton Robots

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20181012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7120572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250