[go: up one dir, main page]

JP2020077374A - Virtual body motion control system, human body restraint jig, and virtual body motion control method - Google Patents

Virtual body motion control system, human body restraint jig, and virtual body motion control method Download PDF

Info

Publication number
JP2020077374A
JP2020077374A JP2019163861A JP2019163861A JP2020077374A JP 2020077374 A JP2020077374 A JP 2020077374A JP 2019163861 A JP2019163861 A JP 2019163861A JP 2019163861 A JP2019163861 A JP 2019163861A JP 2020077374 A JP2020077374 A JP 2020077374A
Authority
JP
Japan
Prior art keywords
joint
joint part
motion
virtual body
torque
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019163861A
Other languages
Japanese (ja)
Other versions
JP7359422B2 (en
Inventor
壮亮 中村
Sosuke Nakamura
壮亮 中村
典樹 望月
Noriki Mochizuki
典樹 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hosei University
Original Assignee
Hosei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hosei University filed Critical Hosei University
Publication of JP2020077374A publication Critical patent/JP2020077374A/en
Application granted granted Critical
Publication of JP7359422B2 publication Critical patent/JP7359422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】人体の少なくとも一部の動作を模擬して動作することができる仮想体を、狭い実空間に人体があっても問題なく動作させる。【解決手段】仮想体の動作制御システムは、人体の少なくとも1つの関節部位を間に挟む2つの非関節部位それぞれの動作を拘束する非関節部位拘束治具と、前記非関節部位拘束治具それぞれの場所において、関節部位を動作させようとするときに前記非関節部位が前記非関節部位拘束治具に作用する力の検出結果を処理して、前記仮想体の動作を制御するデータ処理装置と、を備える。前記データ処理装置は、前記センサーによる検出結果を用いて、前記関節部位に働くトルクを算出するトルク変換処理ユニットと、算出した前記トルクを用いて、前記関節部位に対応する前記仮想体の対応関節部位の動きを表す回転動作データを算出する動作変換処理ユニットと、算出した前記回転動作データに応じて、前記対応関節部位に回転動作を与える回転動作付与ユニットと、を備える。【選択図】図1PROBLEM TO BE SOLVED: To operate a virtual body capable of simulating the movement of at least a part of a human body without any problem even if there is a human body in a narrow real space. SOLUTION: The motion control system of a virtual body is a non-joint part restraining jig for restraining the movement of each of two non-joint parts sandwiching at least one joint part of a human body, and each of the non-joint part restraining jigs. With a data processing device that controls the movement of the virtual body by processing the detection result of the force that the non-joint part acts on the non-joint part restraining jig when trying to move the joint part at the above location. , Equipped with. The data processing device uses a torque conversion processing unit that calculates the torque acting on the joint portion using the detection result by the sensor, and the corresponding joint of the virtual body corresponding to the joint portion using the calculated torque. It includes a motion conversion processing unit that calculates rotation motion data representing the movement of a portion, and a rotation motion imparting unit that gives a rotation motion to the corresponding joint portion according to the calculated rotation motion data. [Selection diagram] Fig. 1

Description

本発明は、人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御システム、仮想体の動作制御方法、及び仮想体の動作制御システムに用いる人体拘束治具に関する。   The present invention relates to a virtual body motion control system capable of simulating at least part of the motion of a human body, a virtual body motion control method, and a human body restraint jig used in the virtual body motion control system.

従来より、人体と同一、もしくは人体の少なくとも一部を模擬した仮想体が、人体の少なくとも一部の動作を模擬して動作するためのインタフェースとして、実際の空間で人体の各部位の位置の変化を計測するモーションセンサが広く用いられている。モーションセンサには、光学式、加速度・ジャイロ式、あるいは磁気式が広く用いられる。   Conventionally, a virtual body that is the same as the human body or simulates at least a part of the human body changes the position of each part of the human body in an actual space as an interface for simulating the operation of at least a part of the human body. Motion sensors that measure the are widely used. An optical type, an acceleration / gyro type, or a magnetic type is widely used for the motion sensor.

例えば、物体に配置された複数のモーションセンサタグから動作データを収集する方法であって、少なくとも一つの無線周波数信号で、前記動作データを送信し、送信した前記動作データを受信し、3次元空間における前記物体の位置、向き、加速、及び/又は、速度を含む3次元データを取得する方法が知られている(特許文献1)。   For example, a method of collecting motion data from a plurality of motion sensor tags arranged on an object, wherein the motion data is transmitted with at least one radio frequency signal, the transmitted motion data is received, and a three-dimensional space is received. There is known a method of acquiring three-dimensional data including the position, orientation, acceleration, and / or velocity of the object in (Patent Document 1).

特表2017−505908号公報Japanese Patent Publication No. 2017-505908

このような方法により、物体、例えば人体の動作を正確に捕捉することはできるが、捕捉した動作の情報を仮想体に与えて、この動作を模擬して仮想体に動作させる場合もある。この場合、以下の問題が発生する。
例えば、仮想体を、無限に広い空間内で動作させる場合、実際の物体、例えば人体においても動作に制約のない広い空間内で動作する必要がある。例えば、仮想体が仮想空間内で、自由にダンスをするような場合、人体でも実空間内で自由にダンスをする必要がある。しかし、実空間内では、場所に制限があり、壁や障害物にぶつかる等して、仮想空間内の仮想体に思い通りの動作をさせることができない場合がある。
このため、実空間に比べて仮想空間における仮想体の動作範囲が広い場合、仮想体は、実空間から十分な動作の入力を受けることができない、といった問題がある。
By such a method, the motion of an object, for example, a human body can be accurately captured, but in some cases, the information of the captured motion is given to the virtual body, and the virtual body is operated by simulating the motion. In this case, the following problems occur.
For example, when a virtual body is operated in an infinitely wide space, it is necessary to operate in a wide space in which the movement of an actual object such as a human body is not restricted. For example, when the virtual body freely dances in the virtual space, the human body also needs to freely dance in the real space. However, in the real space, there are cases where the place is limited, and it may not be possible to cause the virtual body in the virtual space to move as desired due to collision with a wall or an obstacle.
For this reason, there is a problem that, when the movement range of the virtual body in the virtual space is wider than that in the real space, the virtual body cannot receive a sufficient movement input from the real space.

そこで、本発明は、人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作を制御するとき、人体が位置する実空間に比べて広い仮想空間内における仮想体の動作を、狭い実空間に人体があっても問題なく行わせることができる仮想体の動作制御システム、仮想体の動作制御方法、及び動作制御システムに用いる人体拘束治具を提供することを目的とする。   Therefore, the present invention, when controlling the movement of a virtual body capable of simulating at least a part of the movement of the human body, controls the movement of the virtual body in a virtual space wider than the real space in which the human body is located. An object of the present invention is to provide a motion control system for a virtual body, a motion control method for the virtual body, and a human body restraint jig used in the motion control system, which can be performed without problems even if a human body is present in a narrow real space.

本発明の一態様は、人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御システムである。当該仮想体の動作制御システムは、
人体の少なくとも1つの関節部位を間に挟む2つの非関節部位それぞれの動作を拘束する非関節部位拘束治具と、
前記非関節部位拘束治具それぞれの場所に設けられ、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りのトルクに関する情報、あるいは、拘束された前記非関節部位それぞれの筋電情報を検出するセンサーと、
前記センサーによる検出結果を処理して、前記仮想体の動作を制御するデータ処理装置と、を備える。
前記データ処理装置は、
前記センサーによる検出結果を用いて、前記関節部位に働くトルクを算出するトルク変換処理ユニットと、
算出した前記トルクを用いて、前記関節部位に対応する前記仮想体の対応関節部位の動きを表す回転動作データを算出する動作変換処理ユニットと、
算出した前記回転動作データに応じて、前記仮想体の前記対応関節部位に回転動作を与える回転動作付与ユニットと、を備える。
One aspect of the present invention is a virtual body motion control system capable of simulating at least part of the motion of a human body. The operation control system for the virtual body is
A non-joint part restraint jig that restrains the movement of each of two non-joint parts that sandwich at least one joint part of the human body;
The force, pressure, or the circumference of the joint portion, which is provided at each of the non-joint portion restraint jigs, and acts on the non-joint portion restraint jig when the joint portion is operated. Information about the torque of, or a sensor that detects myoelectric information of each of the constrained non-joint site,
A data processing device that processes a detection result of the sensor to control the operation of the virtual body.
The data processing device,
A torque conversion processing unit that calculates a torque acting on the joint portion using the detection result of the sensor,
A motion conversion processing unit that uses the calculated torque to calculate rotational motion data that represents the motion of a corresponding joint part of the virtual body corresponding to the joint part;
And a rotation motion imparting unit that imparts a rotation motion to the corresponding joint portion of the virtual body according to the calculated rotation motion data.

前記トルク変換処理ユニットは、前記非関節部位拘束治具に作用する力又は圧力の情報、前記非関節部位拘束治具により拘束された前記非関節部位が前記非関節部位拘束治具に前記力又は前記圧力を付与する位置と前記関節部位との間の距離情報、前記非関節部位の長さの情報、及び前記非関節部位拘束治具が前記非関節部位を拘束したときの前記関節部位の関節角度の情報、に基づいて、前記トルクを算出する、ことが好ましい。   The torque conversion processing unit is configured such that information on force or pressure acting on the non-joint part restraint jig, the non-joint part restrained by the non-joint part restraint jig is applied to the non-joint part restraint jig by the force or pressure. Distance information between the position to which the pressure is applied and the joint part, information on the length of the non-joint part, and a joint of the joint part when the non-joint part restraining jig restrains the non-joint part. It is preferable to calculate the torque based on the angle information.

前記動作変換処理ユニットは、前記トルクと、前記関節部位の動作を模擬するように弾性係数が非線形に変化する非線形弾性要素及び粘性抵抗係数が非線形に変化する非線形粘性要素を含む前記対応関節部位に対応した前記仮想体の運動力学モデルと、を用いて、前記仮想体の前記運動力学モデルにおける運動結果を算出し、算出した前記運動結果を前記回転動作データとする、ことが好ましい。
一実施形態によれば、前記非線形弾性要素は、前記対応関節部位の関節角度の情報に応じて弾性係数が非線形に変化する弾性要素であり、前記非線形粘性要素は、前記対応関節部位の関節角度の情報及び当該関節角度の時間変化の情報に応じて粘性抵抗係数が非線形に変化する粘性要素である。
前記回転動作付与ユニットは、前記仮想体を動作させる動作信号を前記回転動作データから生成し、前記動作信号を前記仮想体に供給する。
The motion conversion processing unit applies to the torque and the corresponding joint part including a non-linear elastic element whose elastic coefficient changes non-linearly so as to simulate the operation of the joint part and a non-linear viscous element whose viscosity resistance coefficient changes non-linearly. It is preferable that a motion result in the kinematic model of the virtual body is calculated using the corresponding kinematic model of the virtual body, and the calculated motion result is used as the rotational motion data.
According to one embodiment, the non-linear elastic element is an elastic element whose elastic coefficient changes non-linearly according to the information of the joint angle of the corresponding joint part, and the non-linear viscous element is the joint angle of the corresponding joint part. Is a viscous element in which the viscous resistance coefficient changes non-linearly in accordance with the information of and the information of the time change of the joint angle.
The rotary motion imparting unit generates a motion signal for moving the virtual body from the rotary motion data and supplies the motion signal to the virtual body.

前記仮想体の動作制御システムは、
前記回転動作の付与に応じて、前記非関節部位あるいは前記関節部位に前記回転動作を実感させるための刺激信号を生成する刺激制御ユニットと、
前記刺激制御ユニットと接続され、生成した前記刺激信号により、前記非関節部位あるいは前記関節部位に刺激を付与する刺激付与素子と、を備える、ことが好ましい。
前記刺激信号は、振動刺激、電気刺激、及び圧力刺激の少なくとも1つの刺激に関する刺激信号であることが好ましい。一実施形態によれば、前記刺激は、前記回転動作の付与に応じて、前記非関節部位に前記回転動作を実感させるための振動刺激である。
The operation control system of the virtual body,
A stimulation control unit that generates a stimulation signal for making the non-joint portion or the joint portion experience the rotating motion according to the application of the rotating motion;
It is preferable that the apparatus further comprises a stimulus applying element that is connected to the stimulus control unit and applies a stimulus to the non-joint site or the joint site by the generated stimulation signal.
The stimulation signal is preferably a stimulation signal relating to at least one stimulation of vibration stimulation, electrical stimulation, and pressure stimulation. According to one embodiment, the stimulus is a vibration stimulus that causes the non-joint portion to experience the rotational motion according to the application of the rotational motion.

前記仮想体の動作制御システムは、前記回転動作の付与に応じて、前記対応関節部位に回転動作を与えて動作する前記仮想体の画像を表示させるディスプレイを備える、ことが好ましい。   It is preferable that the motion control system for the virtual body includes a display for displaying an image of the virtual body that operates by applying a rotational motion to the corresponding joint part according to the impartation of the rotational motion.

前記仮想体の動作制御システムは、
前記仮想体の、前記非関節部位に対応する対応非関節部位が予め定めた目標回転動作を行うために、前記非関節部位が力を発したときの前記仮想体の前記対応非関節部位の回転動作と、前記目標回転動作との間の誤差を算出し、前記誤差が小さくなるように、前記誤差に基づいて、前記トルク変換処理ユニットあるいは前記動作変換処理ユニットが前記トルクあるいは前記回転動作データを算出する際に用いるパラメータを調整するキャリブレーションユニットを、備える、ことが好ましい。
The operation control system of the virtual body,
Rotation of the corresponding non-joint portion of the virtual body when the non-joint portion exerts a force so that the corresponding non-joint portion of the virtual body corresponding to the non-joint portion performs a predetermined target rotation operation. An error between the operation and the target rotational operation is calculated, and the torque conversion processing unit or the operation conversion processing unit calculates the torque or the rotational operation data based on the error so that the error becomes small. It is preferable to include a calibration unit that adjusts a parameter used in the calculation.

一実施形態によれば、前記関節部位は、手の指関節部位を複数含み、前記対応関節部位における回転動作は、前記仮想体の対応する指の曲げ伸ばし動作を含む。   According to one embodiment, the joint part includes a plurality of finger joint parts of the hand, and the rotating motion at the corresponding joint part includes a bending and stretching motion of a corresponding finger of the virtual body.

一実施形態によれば、前記関節部位は、脚及び腰の関節部位を複数含み、前記対応関節部位における回転動作は、前記仮想体の対応する脚による歩行動作を含む。   According to an embodiment, the joint part includes a plurality of joint parts of a leg and a waist, and the rotational motion at the corresponding joint part includes a walking motion by the corresponding leg of the virtual body.

本発明の他の一態様は、人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御を行うめに、人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束する人体拘束治具である。当該人体拘束治具は、
人体の少なくとも1つの関節部位を間に挟む2つの非関節部位それぞれの動作を拘束する非関節部位拘束治具と、
前記非関節部位拘束治具それぞれの場所に設けられ、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りのトルクに関する情報を検出し、前記力、前記圧力、又は前記関節部位周りのトルクに関する情報を外部のデータ処理装置に出力するセンサーと、
を備える。
前記センサーは、前記関節部位の屈伸により前記非関節部位が動こうとする方向の、前記非関節部位を挟んだ前記非関節部位拘束治具の両側の部分それぞれに設けられている。
According to another aspect of the present invention, two non-joint parts sandwiching at least one joint part of the human body are provided in order to control the motion of a virtual body that can simulate the motion of at least part of the human body. Is a human body restraint jig that restrains the movement of the human body. The human body restraint jig is
A non-joint part restraint jig that restrains the movement of each of two non-joint parts that sandwich at least one joint part of the human body;
The force, pressure, or the circumference of the joint portion, which is provided at each of the non-joint portion restraint jigs, and acts on the non-joint portion restraint jig when the joint portion is operated. A sensor for detecting the information regarding the torque of, and outputting the information regarding the force, the pressure, or the torque around the joint part to an external data processing device;
Equipped with.
The sensors are provided on both sides of the non-joint part restraint jig sandwiching the non-joint part in a direction in which the non-joint part is about to move due to bending and stretching of the joint part.

前記非関節部位拘束治具は、前記非関節部位の寸法に応じて寸法が調整可能に構成され、
前記非関節部位拘束治具により拘束された前記非関節部位が前記非関節部位拘束治具に前記力又は前記圧力を付与する位置と前記関節部位との間の距離情報、前記非関節部位の長さの情報、及び前記非関節部位拘束治具が前記非関節部位を拘束したときの前記関節部位の関節角度の情報の少なくとも1つを計測し、計測結果を前記データ処理装置に出力する計測装置を備える、ことが好ましい。
The non-joint part restraint jig is configured such that the size can be adjusted according to the size of the non-joint part,
Distance information between a position at which the non-joint part restrained by the non-joint part restraint jig applies the force or the pressure to the non-joint part restraint jig and the joint part, and a length of the non-joint part. Measuring device for measuring at least one of information on the height and information on the joint angle of the joint part when the non-joint part restraint jig restrains the non-joint part, and outputs the measurement result to the data processing device. Is preferably provided.

本発明の他の一態様は、人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御方法である。当該仮想体の動作制御方法は、
人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束した状態で、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りのトルクに関する情報、あるいは、拘束された前記非関節部位それぞれの筋電情報を検出するステップと、
前記検出するステップの検出結果を用いて、前記関節部位に働くトルクを算出するステップと、
算出した前記トルクを用いて、前記関節部位に対応する前記仮想体の対応関節部位の動きを表す回転動作データを算出するステップと、
算出した回転動作データに応じて、前記仮想体の前記対応関節部位に回転動作を与えるステップと、を備える。
Another aspect of the present invention is a virtual body motion control method capable of simulating at least part of the motion of a human body. The operation control method of the virtual body is
Each of the non-joint parts acts on the non-joint part restraint jig when attempting to move the joint part while restraining the motion of each of the two non-joint parts sandwiching at least one joint part of the human body. Detecting force, pressure, or information about the torque around the joint part, or myoelectric information of each of the constrained non-joint parts;
Calculating a torque acting on the joint part using the detection result of the detecting step;
Using the calculated torque, calculating rotational motion data representing the motion of the corresponding joint part of the virtual body corresponding to the joint part;
Applying a rotational motion to the corresponding joint part of the virtual body according to the calculated rotational motion data.

上述の仮想体の動作制御システム、仮想体の動作制御方法、及び人体拘束治具によれば、人体が位置する実空間に比べて広い仮想空間内における仮想体の動作を、狭い実空間に人体があっても問題なく行わせることができる。   According to the above-described virtual body motion control system, virtual body motion control method, and human body restraint jig, the motion of the virtual body in a virtual space wider than the real space in which the human body is located can be performed in a narrow real space. Even if there is, it can be done without problems.

一実施形態の仮想体の動作制御システムの概略を説明する図である。It is a figure explaining the outline of the operation control system of the virtual body of one embodiment. 仮想体の動作制御を行う一実施形態のデータ処理装置の構成の一例を示す図である。It is a figure showing an example of composition of a data processor of one embodiment which controls operation of a virtual body. 一実施形態で用いる人体の関節部位の一例として、指関節を説明する図である。It is a figure explaining a finger joint as an example of the joint part of the human body used in one embodiment. (a)は、指関節周りの非関節部位と、一実施形態で用いる非関節部位拘束治具を詳細に説明する図であり、(b)は、一実施形態のデータ処理装置のトルク変換処理ユニットがセンサーの検出結果からトルクを算出するためのモデルの例を説明する図である。(A) is a figure explaining in detail a non-joint part around a finger joint and a non-joint part restraint jig used in one embodiment, and (b) is a torque conversion process of a data processor of one embodiment. It is a figure explaining the example of the model for a unit to calculate torque from the detection result of a sensor. 非線形弾性要素及び非線形粘性要素における非線形関数の例を説明する図である。It is a figure explaining the example of the non-linear function in a non-linear elastic element and a non-linear viscous element. (a),(b)は、一実施形態で用いる仮想体の動作の一例を説明する図である。(A), (b) is a figure explaining an example of operation of a virtual body used by one embodiment. (a)〜(c)は、図4(b)に示す第1〜第3モデル関節に与えた非線形弾性要素の特性の例を示す図である。(A)-(c) is a figure which shows the example of the characteristic of the nonlinear elastic element given to the 1st-3rd model joint shown in FIG.4 (b). 図4(b)に示す第1〜第3モデル関節に与えた非線形粘性要素の特性の例を示す図である。It is a figure which shows the example of the characteristic of the non-linear viscous element given to the 1st-3rd model joint shown in FIG.4 (b). (a)〜(f)は、図4(a)に示す非関節部位がセンサーに与える力の時間変化の例を示す図である。(A)-(f) is a figure which shows the example of the time change of the force which a non-joint part shown to Fig.4 (a) gives to a sensor. (a)〜(c)は、図4(b)に示すモデルの第1〜第3モデル関節それぞれの周りに作用するトルクの時間変化の例を示す図である。(A)-(c) is a figure which shows the example of the time change of the torque which acts around each 1st-3rd model joint of the model shown in FIG.4 (b). (a)〜(c)は、図4(b)に示すモデルの第1〜第3モデル関節それぞれの非線形粘性要素に生じたトルクの時間変化の例を示す図である。(A)-(c) is a figure which shows the example of the time change of the torque which arose in the nonlinear viscous element of each of the 1st-3rd model joint of the model shown in FIG.4 (b). (a)〜(c)は、図4(b)に示すモデルの第1〜第3モデル関節それぞれの関節角度の時間変化の例を示す図である。(A)-(c) is a figure which shows the example of the time change of each joint angle of the 1st-3rd model joint of the model shown in FIG.4 (b). (a),(b)は、本実施形態の方法及び従来の方法で行った仮想体のタスク内容とその仮想体の動作結果の一例を示す図である。(A), (b) is a figure which shows the example of the task content of the virtual body performed by the method of this embodiment, and the conventional method, and the operation result of the virtual body. (a)〜(c)は、センサーによる検出結果に基づいて得られる仮想体の回転動作のキャリブレーションの一例を説明する図である。(A)-(c) is a figure explaining an example of calibration of rotation operation of a virtual body obtained based on a detection result by a sensor. 人体拘束治具の一形態である人差し指の動作を拘束する指拘束治具の一例の概観斜視図である。FIG. 4 is a schematic perspective view of an example of a finger restraint jig that restrains the operation of the index finger, which is one form of a human body restraint jig. 人体拘束治具の一形態である、脚の動作を拘束する脚拘束治具の一例の概観斜視図である。It is a general | schematic perspective view of an example of a leg restraint jig which restrains movement of a leg which is one form of a human body restraint jig. (a)は、人体の頭部〜胴体〜脚〜足の部分における、実施形態で動作を拘束する非関節部位の例を説明する図であり、(b)は、センサーの配置の例を説明する図である。(A) is a figure explaining the example of the non-joint part which restrains operation in an embodiment in a part of a human body-a body-legs-feet, and (b) explains an example of arrangement of a sensor. FIG. (a)は、人体の腕〜手の部分における、本実施形態で動作を拘束する非関節部位の例を説明する図であり、(b)は、センサーの配置の例を説明する図である。(A) is a figure explaining the example of the non-joint part which restrains operation in this embodiment in a part of a human body's arm-hand, and (b) is a figure explaining an example of arrangement of a sensor. .. (a)は、人体の指における、本実施形態で動作を拘束する非関節部位の例を説明する図であり、(b)は、センサーの配置の例を説明する図である。(A) is a figure explaining the example of the non-joint part which restrains operation in this embodiment in a finger of a human body, and (b) is a figure explaining the example of arrangement of a sensor. (a)は、人体の関節周りの捩じり回転動作を拘束する非関節部位とセンサーの配置の例を説明する図であり、(b)は、人体の腕の捩じり回転動作を拘束する非関節部位とセンサーの配置の例を説明する図である。(A) is a figure explaining the example of arrangement | positioning of the non-joint part and sensor which restrain a twist rotation operation around the joint of a human body, (b) restrains the twist rotation operation of an arm of a human body. It is a figure explaining the example of arrangement | positioning of the non-joint site | part and the sensor.

以下、一実施形態の仮想体の動作制御方法を実行する仮想体の動作制御システムを、図面を参照しながら説明する。   Hereinafter, a virtual body motion control system that executes a virtual body motion control method according to an embodiment will be described with reference to the drawings.

(仮想体の動作制御の概略説明)
図1は、一実施形態の仮想体の動作制御システム(以下、単にシステムという)の概略を説明する図である。図1に示すシステム1は、非関節部位拘束治具10と、センサー12と、データ処理装置14と、振動子16と、ウェアラブルディスプレイ18と、を備える。
(Outline of virtual body motion control)
FIG. 1 is a diagram illustrating an outline of a virtual body motion control system (hereinafter, simply referred to as a system) according to an embodiment. The system 1 shown in FIG. 1 includes a non-joint part restraint jig 10, a sensor 12, a data processing device 14, a vibrator 16, and a wearable display 18.

非関節部位拘束治具10は、ベッド3上に横になった人体の各関節部位を間に挟む2つの非関節部位それぞれの動作を拘束するように配置されている。例えば、非関節部位拘束治具10は、腕の肘関節に対して上腕と前腕の部位(非関節部位)を拘束する。非関節部位拘束治具10は、各非関節部位が変位することがないように各非関節部位を固定する。   The non-joint part restraint jig 10 is arranged so as to restrain the motion of each of the two non-joint parts that sandwich the joint parts of the human body lying on the bed 3. For example, the non-joint part restraint jig 10 restrains the parts of the upper arm and the forearm (non-joint parts) with respect to the elbow joint of the arm. The non-joint part restraint jig 10 fixes each non-joint part so that each non-joint part is not displaced.

センサー12は、非関節部位拘束治具10それぞれの場所に設けられ、関節部位を動作(屈伸あるいは回転)させようとするときに非関節部位それぞれが非関節部位拘束治具10に作用する力、圧力、又は関節部位周りに作用するトルクに関する情報を検出する部分である。例えば、非関節部位拘束治具10の非関節部位と接する面に、センサー12が設けられる。図1では、わかり易く示すために、非関節部位拘束治具10とは別の場所にセンサー12があるように図示されているが、センサー12は、各非関節部位拘束治具10に設けられている。非関節部位拘束治具10のそれぞれに設けられたセンサー12からの検出結果がデータ処理装置14に供給される。   The sensor 12 is provided at each location of the non-joint site restraint jig 10, and the force exerted on the non-joint site restraint jig 10 by each non-joint site when the joint site is moved (bend / extend or rotate). It is a part that detects information about pressure or torque acting around the joint part. For example, the sensor 12 is provided on the surface of the non-joint part restraint jig 10 that contacts the non-joint part. In FIG. 1, the sensor 12 is shown in a place different from the non-joint part restraint jig 10 for the sake of clarity, but the sensor 12 is provided in each non-joint part restraint jig 10. There is. The detection results from the sensors 12 provided in the respective non-joint part restraint jigs 10 are supplied to the data processing device 14.

なお、センサー12は、非関節部位それぞれが非関節部位拘束治具10に作用する力又は圧力の情報を検出する場合に限定されず、拘束された非関節部位それぞれの筋電情報を検出してもよい。少なくとも、動きが拘束された非関節部位がどの程度の力を発揮するかの情報を検出することができればよい。検出された情報は、適宜、データ処理装置14内でキャリブレーションされ、力の情報に変換される。また、センサー12は、関節部位周りのトルクに関する情報を検出してもよい。この場合、検出したトルクに関する情報は、データ処理装置14において、所定の換算式を介してトルクの値が算出される。   It should be noted that the sensor 12 is not limited to the case of detecting the information on the force or the pressure acting on the non-joint site restraint jig 10 by each non-joint site, and detects the myoelectric information of each restrained non-joint site. Good. At least, it is only necessary to be able to detect the information on how much force the non-joint part whose movement is restricted exerts. The detected information is appropriately calibrated in the data processing device 14 and converted into force information. Further, the sensor 12 may detect information about the torque around the joint part. In this case, as the information on the detected torque, the value of the torque is calculated by the data processing device 14 through a predetermined conversion formula.

データ処理装置14は、コンピュータで構成され、センサー12による検出結果を処理して、別の空間内に位置する仮想体Vの動作を制御する装置である。仮想体Vは、操作者の人体により制御される。
ここで、別の空間とは、実際の操作者の人体が位置する実空間とは異なる空間であって、仮想空間でもいいし、操作者の人体が位置する空間とは異なる、離間した実空間(例えば、遠隔地の空間)であってもよい。仮想空間は、例えば、コンピュータで作成された非現実空間である。
仮想体Vは、人体の少なくとも一部の動作を模擬して動作することができるもので、実際の空間に存在するロボット(例えば、遠隔ロボット)でもよいし、仮想空間内のアバターや分身キャラクタ等であってもよい。また、仮想体Vは、人体全てを模擬するものに制限されず、人体の一部を模擬して動作することができるものであってもよい。例えば、仮想体Vは、手を模擬して指が曲げ伸ばし運動をするものであってもよい。
The data processing device 14 is a device that is configured by a computer, processes the detection result of the sensor 12, and controls the operation of the virtual body V located in another space. The virtual body V is controlled by the human body of the operator.
Here, the different space is a space different from the real space in which the actual human body of the operator is located, and may be a virtual space, or a separated real space different from the space in which the human body of the operator is located. (For example, a remote space). The virtual space is, for example, an unrealistic space created by a computer.
The virtual body V is capable of simulating at least a part of the movement of the human body, and may be a robot (for example, a remote robot) existing in an actual space, or an avatar or a ghost character in the virtual space. May be Further, the virtual body V is not limited to the one that simulates the entire human body, and may be one that can simulate and operate a part of the human body. For example, the virtual body V may imitate a hand to bend and extend a finger.

振動子16は、非関節部位拘束治具10が人体の非関節部位と接触する接触面に設けられる刺激付与素子である。振動子16は、データ処理装置14から供給される振動信号に応じて非関節部位に振動刺激を与えることにより、関節部位及び非回転部位が固定されているにも拘らず、関節部位があたかも回転動作した錯覚を与えることができる。なお、振動信号は、データ処理装置14において、関節部位の回転動作に応じて生成される。本実施形態では、関節部位があたかも回転動作した錯覚を与える刺激として、振動刺激を用いるが、振動刺激に制限されず、非関節部位あるいは関節部位に回転動作を実感させるための種々の刺激を用いることもできる。一実施形態によれば、刺激は、振動刺激、電気刺激、及び圧力刺激の少なくとも1つの刺激あるいは、これらの組み合わせた複合の刺激であることが好ましい。したがって、刺激の種類に応じて刺激付与素子は、振動素子16と異なる素子に変更される。
ウェアラブルディスプレイ18は、回転動作をした仮想体V(の状態)が画面表示されるものであり、画面を見た仮想体Vの操作者に、自分の関節部位があたかも回転動作したかのような錯覚を、視覚を通して与えることができる。
The vibrator 16 is a stimulating element provided on the contact surface where the non-joint part restraint jig 10 comes into contact with the non-joint part of the human body. The vibrator 16 applies a vibration stimulus to a non-joint part in accordance with a vibration signal supplied from the data processing device 14 to rotate the joint part as if the joint part and the non-rotating part were fixed. It can give the illusion of movement. The vibration signal is generated in the data processing device 14 in accordance with the rotational movement of the joint part. In the present embodiment, the vibration stimulus is used as a stimulus that gives the illusion that the joint part is rotating, but it is not limited to the vibration stimulus, and various stimuli are used to make the non-joint part or the joint part experience the rotating motion. You can also According to one embodiment, the stimulation is preferably at least one stimulation of vibration stimulation, electrical stimulation, and pressure stimulation, or a combination stimulation thereof. Therefore, the stimulus applying element is changed to an element different from the vibrating element 16 according to the type of stimulus.
The wearable display 18 displays (the state of) the virtual body V that has rotated, on the screen, and it is as if the joint part of the operator of the virtual body V who saw the screen was rotated. The illusion can be given through vision.

このように、実施形態では、関節部位を間に挟む2つの非関節部位それぞれの動作を拘束し、人体が関節部位の周りにトルクを作用させるように力を加えた場合、非関節部位に対応して設けられたセンサー12でこの力を検出することにより、データ処理装置14は関節部位の周りに作用するトルクを算出する。さらに、データ処理装置14は、算出したトルクを用いて、関節部位をモデル化した仮想体Vの運動力学モデル(回転に関する運動方程式)を用いて、関節部位の動きを表す回転動作データを算出する。この運動力学モデルは、仮想体Vの対応関節部位に対応したモデルである。
データ処理装置14は、算出した回転動作データから仮想体Vを動作させる動作信号を生成して、動作信号を仮想体Vに供給して、仮想体Vを動作させる。すなわち、データ処理装置14は、算出した回転動作データに応じて、関節部位に対応する仮想体Vの対応関節部位に回転動作を与える。
As described above, in the embodiment, when the motion of each of the two non-joint parts sandwiching the joint part is constrained and the human body applies a force to exert a torque around the joint part, the non-joint part is supported. The data processing device 14 calculates the torque acting around the joint part by detecting this force with the sensor 12 provided at the same time. Further, the data processing device 14 uses the calculated torque to calculate rotational motion data that represents the motion of the joint part, using the kinematic model of the virtual body V that models the joint part (kinetic equation regarding rotation). .. This kinematic model is a model corresponding to the corresponding joint part of the virtual body V.
The data processing device 14 generates an operation signal for operating the virtual body V from the calculated rotation operation data, supplies the operation signal to the virtual body V, and operates the virtual body V. That is, the data processing device 14 applies the rotational motion to the corresponding joint part of the virtual body V corresponding to the joint part according to the calculated rotating motion data.

このように、人体は動作することなく静止した状態で、仮想体Vを動作させることができるので、実空間に比べて広い仮想空間内における仮想体Vの動作を、実空間が極めて狭い空間であっても問題なく動作させることができる。すなわち、従来は、人体の動作に合わせて仮想体Vを動作させていたが、実施形態では、人体が発する力、圧力、トルクに関する情報、或いは筋電位情報を利用して仮想体Vを動作させる。
したがって、人体の動作が制限されるような狭い空間でも、仮想体Vを自由に動作させることができる。
In this way, the human body can move the virtual body V in a stationary state without moving, so that the movement of the virtual body V in a virtual space wider than the real space can be performed in a space where the real space is extremely narrow. Even if there is, it can be operated without problems. That is, in the past, the virtual body V was operated in accordance with the movement of the human body, but in the embodiment, the virtual body V is operated using information on the force, pressure, torque generated by the human body or myoelectric potential information. .
Therefore, the virtual body V can be freely moved even in a narrow space where the movement of the human body is limited.

(仮想体の動作制御の具体的な説明)
図2は、仮想体Vの動作制御を行うデータ処理装置14の構成の一例を示す図である。データ処理装置14は、CPU20及びメモリ22を有するコンピュータで構成されている。コンピュータには、マウスやキーボード等の入力操作系24及びディプレイ26が接続されている。ディスプレイ26は、図1に示すようなウェアラブルディスプレイ18であってもよい。
メモリ22に記憶されているプログラムを呼び出して起動することにより、仮想体Vの動作制御を行うソフトウェアモジュールが形成される。具体的には、ソフトウェアモジュールとして、トルク変換処理ユニット28、動作変換処理ユニット30、及び回転動作付与ユニット32が形成される。これらのユニットそれぞれの処理は、ソフトウェアモジュールにつき、実質的にはCPU20で行われる。
(Specific explanation of virtual body motion control)
FIG. 2 is a diagram illustrating an example of the configuration of the data processing device 14 that controls the operation of the virtual body V. The data processing device 14 is composed of a computer having a CPU 20 and a memory 22. An input operation system 24 such as a mouse and a keyboard and a display 26 are connected to the computer. The display 26 may be the wearable display 18 as shown in FIG.
A software module for controlling the operation of the virtual body V is formed by calling and activating a program stored in the memory 22. Specifically, a torque conversion processing unit 28, a motion conversion processing unit 30, and a rotational motion imparting unit 32 are formed as software modules. The processing of each of these units is substantially performed by the CPU 20 for each software module.

トルク変換処理ユニット28は、センサー12による検出結果を用いて、関節部位に働くトルクを算出する部分である。
動作変換処理ユニット30は、算出したトルクを用いて、関節部位に対応する仮想体Vの対応関節部位の回転動作データを算出する部分である。
回転動作付与ユニット32は、算出した回転動作データに応じて、仮想体Vの対応関節部位に回転動作を与える部分である。すなわち、回転動作付与ユニット32は、仮想体Vを動作させる動作信号を生成し、この動作信号を仮想体Vに供給する。
仮想体Vは、注目する関節部位の動作を再現することができるように、各関節部位に対応した対応関節部位を有し、データ処理ユニット14から供給された動作信号に応じて対応関節部位が回転動作をするように構成されている。
The torque conversion processing unit 28 is a part that calculates the torque acting on the joint part using the detection result of the sensor 12.
The motion conversion processing unit 30 is a part that calculates the rotational motion data of the corresponding joint part of the virtual body V corresponding to the joint part using the calculated torque.
The rotation motion imparting unit 32 is a part that imparts a rotation motion to the corresponding joint part of the virtual body V according to the calculated rotation motion data. That is, the rotation motion imparting unit 32 generates a motion signal for moving the virtual body V, and supplies this motion signal to the virtual body V.
The virtual body V has a corresponding joint part corresponding to each joint part so that the motion of the joint part of interest can be reproduced, and the corresponding joint part is generated in accordance with the operation signal supplied from the data processing unit 14. It is configured to rotate.

以降、実施形態をわかり易く説明するために、指関節を人体の関節部位の一例として挙げて説明する。
図3は、人体の関節部位の一例として、指関節を説明する図である。図3には、指関節として、第1関節50、第2関節52、及び第3関節54が図示されている。さらに、第1関節50を間に挟む非関節部位56,58と、第2関節52を間に挟む非関節部位58,60とが図示されている。
図4(a)は、指関節周りの非関節部位56,58,60と、非関節部位拘束治具10を詳細に説明する図である。非関節部位拘束治具10は、非関節部位56,58,60それぞれの外周を取り巻いて、非関節部位56,58,60それぞれを動かないように固定する。
非関節部位拘束治具10が非関節部位56,58,60のそれぞれと接する面には、非関節部位56,58,60が非関節部位拘束治具10に与える力を検出するセンサー12が非関節部位56,58,60の指内側及び指外側に設けられる。指内側とは、指の腹の側をいい、指外側とは、指の背側(腹の側と反対側)をいう。すなわち、センサー12は、図4(a)に示すように、関節部位50,52の屈伸により非関節部位56,58,60が動こうとする方向の、非関節部位56,58,60を挟んだ非関節部位拘束治具10の両側の部分それぞれに設けられている。
図4(a)では、指内側に設けられるセンサー12をセンサー12aと記載し、指外側に設けられるセンサー12をセンサー12bと記載して区別している。以降、このセンサーを総称して説明するときは、センサー12とし、指内側及び指外側のセンサーを区別して説明するときは、センサー12aあるいはセンサー12bと記載して説明する。
Hereinafter, in order to explain the embodiment in an easy-to-understand manner, a finger joint will be described as an example of a joint part of a human body.
FIG. 3 is a diagram illustrating a finger joint as an example of a joint part of a human body. In FIG. 3, a first joint 50, a second joint 52, and a third joint 54 are illustrated as finger joints. Further, non-joint parts 56 and 58 sandwiching the first joint 50 and non-joint parts 58 and 60 sandwiching the second joint 52 are illustrated.
FIG. 4A is a diagram illustrating in detail the non-joint parts 56, 58, 60 around the finger joint and the non-joint part restraining jig 10. The non-joint part restraint jig 10 surrounds the outer circumference of each of the non-joint parts 56, 58, 60 and fixes the non-joint parts 56, 58, 60 so as not to move.
The sensor 12 for detecting the force applied to the non-joint part restraint jig 10 by the non-joint parts 56, 58, 60 is not attached to the surface of the non-joint part restraint jig 10 in contact with each of the non-joint parts 56, 58, 60. It is provided inside and outside the fingers of the joint parts 56, 58, and 60. The inside of the finger refers to the side of the belly of the finger, and the outside of the finger refers to the dorsal side of the finger (the side opposite to the side of the belly). That is, as shown in FIG. 4A, the sensor 12 sandwiches the non-joint parts 56, 58, 60 in the direction in which the non-joint parts 56, 58, 60 are about to move due to the bending and stretching of the joint parts 50, 52. It is provided on each of both sides of the non-joint part restraint jig 10.
In FIG. 4A, the sensor 12 provided inside the finger is referred to as a sensor 12a, and the sensor 12 provided outside the finger is referred to as a sensor 12b for distinction. Hereinafter, this sensor will be collectively referred to as the sensor 12, and the sensor inside the finger and the sensor outside the finger will be described as the sensor 12a or the sensor 12b when described separately.

非関節部位拘束治具10に設けるセンサー12の配置位置及び配置数は、データ処理装置14において、関節部位のどのような回転動作を算出するかによって異なる。図3に示すように指関節の場合、第1関節50、第2関節52、及び第3関節54周りの動作は、一方向(図4(a)の紙面に垂直方向)に延びる軸周りの回転動作であるため、センサー12が非関節部位56,58,60の指内側及び指外側から非関節部位拘束治具10に与える力を検出するように、センサー12が非関節部位56,58,60の指内側及び指外側に設けられる。二方向の軸周りの回転動作をするような関節部位の場合、四方向に少なくとも力を検出するセンサー12を設ける。さらに、三方向の軸周りの回転動作をするような関節部位の場合、非関節部位拘束治具10を拘束する非関節部位が延びる軸周りの回転トルクを検出するセンサーを備えることが好ましい。   The arrangement position and the number of the sensors 12 provided in the non-joint part restraint jig 10 differ depending on what kind of rotation operation of the joint part is calculated in the data processing device 14. In the case of a knuckle as shown in FIG. 3, the motion around the first joint 50, the second joint 52, and the third joint 54 is about an axis extending in one direction (direction perpendicular to the paper surface of FIG. 4A). Since the rotation operation is performed, the sensor 12 detects the force applied to the non-joint part restraint jig 10 from the inside and outside of the fingers of the non-joint parts 56, 58, 60 so that the sensor 12 detects the non-joint parts 56, 58, 60. It is provided inside and outside the finger 60. In the case of a joint part that rotates about an axis in two directions, a sensor 12 that detects at least force in four directions is provided. Furthermore, in the case of a joint part that rotates about three axes, it is preferable to include a sensor that detects a rotational torque about an axis along which the non-joint part that holds the non-joint part holding jig 10 extends.

図4(b)は、トルク変換処理ユニット28がセンサー12の検出結果からトルクを算出するための関節部位に対応したモデルの例を説明する図である。このモデルの挙動に一致するように、仮想体Vは動作する。
モデルは、第1関節50、第2関節52、及び第3関節54のそれぞれに対応した第1モデル関節50a、第2モデル関節52a、及び第3モデル関節54aと、非関節部位56,58,60のそれぞれに対応するモデル非関節部位56a,58a,60aと、有する。
FIG. 4B is a diagram illustrating an example of a model corresponding to the joint part for the torque conversion processing unit 28 to calculate the torque from the detection result of the sensor 12. The virtual body V operates so as to match the behavior of this model.
The model includes a first model joint 50a, a second model joint 52a, and a third model joint 54a corresponding to the first joint 50, the second joint 52, and the third joint 54, respectively, and non-joint parts 56, 58, 60 non-joint parts 56a, 58a, 60a corresponding to 60, respectively.

図4(b)には、センサー12が検出した、非関節部位60,58,56が非関節部位拘束治具10に与える力F,F,Fが示されている。力F,F,Fは、非関節部位拘束治具10の固定部分の中心位置に作用するものとして扱われる。
したがって、センサー12で検出された力F,F,Fから各関節部位周りのトルクτ,τ,τを算出するとき、力F,F,Fの情報、第3モデル関節54aから力Fの作用する位置までの距離S1、第2モデル関節52aから力Fの作用する位置までの距離S、第1モデル関節50aから力Fの作用する位置までの距離S、非関節部位60,58,56の長さl,l,lの情報、及び関節角度θ,θ,θの情報(非関節部位拘束治具10が拘束した関節部位の関節角度の情報)を用いて、トルクτ,τ,τを算出する。なお、距離S、距離S、及び距離Sは、非関節部位60,58,56が非関節部位拘束治具10に力又は圧力を付与する位置(センサー12の配置される位置)から第3関節54第、第2関節52、及び1関節50までの距離でもある。
このように、トルク変換処理ユニット28は、非関節部位60,58,56が非関節部位拘束治具10に与える力F,F,Fの情報と、非関節部位60,58,56が非関節部位拘束治具10に力又は圧力を付与する位置から第3関節54第、第2関節52、及び1関節50までの距離情報(距離S、距離S、距離S)と、非関節部位60,58,56の長さの情報(長さl,l,l)と、関節部位における関節角度の情報(関節角度θ,θ,θ)と、を用いて、トルクτ,τ,τを算出するので、関節部位周りのトルクを正確に算出することができる。なお、距離S、距離S、距離S、長さl,l,lの情報は、予め値が設定されたパラメータであり、入力操作系24から入力される。あるいは、非関節部位拘束治具10に上記距離情報、上記長さの情報、上記関節角度の情報を検出する図示されない計測装置が設けられ、この計測装置の計測結果が、トルク変換処理ユニット28に送信されてもよい。
FIG. 4B shows the forces F 1 , F 2 , and F 3 detected by the sensor 12 and applied to the non-joint part restraint jig 10 by the non-joint parts 60, 58, and 56. The forces F 1 , F 2 , and F 3 are treated as acting on the central position of the fixed portion of the non-joint part restraint jig 10.
Therefore, when the torques τ 1 , τ 2 , τ 3 around each joint part are calculated from the forces F 1 , F 2 , F 3 detected by the sensor 12, information on the forces F 1 , F 2 , F 3 , 3 model distance S 1 from the joint 54a to the position where the action of the force F 1, the distance S 2 from the second model joint 52a to a position where the action of the force F 2, the position of action of the force F 3 from the first model joint 50a To the distance S 3 , information about the lengths l 1 , l 2 and l 3 of the non-joint parts 60, 58 and 56, and information about the joint angles θ 1 , θ 2 and θ 3 ( The torques τ 1 , τ 2 , τ 3 are calculated using the information on the joint angle of the restrained joint part). It should be noted that the distance S 1 , the distance S 2 , and the distance S 3 are from the position where the non-joint parts 60, 58, 56 apply force or pressure to the non-joint part restraint jig 10 (the position where the sensor 12 is arranged). It is also the distance to the third joint 54, the second joint 52, and the first joint 50.
As described above, the torque conversion processing unit 28 includes information on the forces F 1 , F 2 , and F 3 that the non-joint parts 60, 58, 56 give to the non-joint part restraint jig 10, and the non-joint parts 60, 58, 56. And distance information (distance S 1 , distance S 2 , distance S 3 ) from the position where force is applied to the non-joint part restraint jig 10 to the third joint 54, the second joint 52, and the one joint 50, , Information about the lengths of the non-joint parts 60, 58, 56 (lengths l 1 , l 2 , l 3 ) and information about the joint angles at the joint parts (joint angles θ 1 , θ 2 , θ 3 ). Since the torques τ 1 , τ 2 , and τ 3 are calculated by using the torques, the torque around the joint portion can be calculated accurately. The information on the distance S 1 , the distance S 2 , the distance S 3 , and the lengths l 1 , l 2 , and l 3 are parameters whose values are set in advance and are input from the input operation system 24. Alternatively, the non-joint part restraint jig 10 is provided with a measuring device (not shown) that detects the distance information, the length information, and the joint angle information, and the measurement result of the measuring device is stored in the torque conversion processing unit 28. It may be transmitted.

動作変換処理ユニット30は、トルク変換処理ユニット28で算出したトルクτ,τ,τを用いて、仮想体Vの対応関節部位の回転動作データを算出する。データ処理装置14には、センサー12から検出結果が常時供給されるので、トルク変換処理ユニット28は、力F,F,Fに基づいて所定の間隔でトルクτ,τ,τを算出し、動作変換処理ユニット30は、トルクτ,τ,τの算出の度に、回転動作データを算出する。
具体的には、動作変換処理ユニット30は、第3関節54、第2関節52、第1関節50の慣性モーメントと、算出したトルクτ,τ,τと、非関節部位の自重により発生するトルクと、を関係付けた回転に関する運動方程式(仮想体Vの運動力学モデル)に、トルクτ,τ,τを与えて、運動方程式を解くことにより、関節角度θ,θ,θの時間変化を算出することができる。
The motion conversion processing unit 30 uses the torques τ 1 , τ 2 , and τ 3 calculated by the torque conversion processing unit 28 to calculate rotational motion data of the corresponding joint part of the virtual body V. Since the detection result is constantly supplied to the data processing device 14 from the sensor 12, the torque conversion processing unit 28 causes the torques τ 1 , τ 2 , τ at predetermined intervals based on the forces F 1 , F 2 , F 3. 3 , and the motion conversion processing unit 30 calculates the rotational motion data every time the torques τ 1 , τ 2 , τ 3 are calculated.
Specifically, the motion conversion processing unit 30 uses the moments of inertia of the third joint 54, the second joint 52, and the first joint 50, the calculated torques τ 1 , τ 2 , τ 3 and the own weight of the non-joint portion. The torques τ 1 , τ 2 , and τ 3 are given to a motion equation related to rotation (a kinematic model of the virtual body V) in which the generated torque is related to each other, and the joint equations θ 1 and θ are solved by solving the motion equation. The time change of 2 and θ 3 can be calculated.

このとき、一実施形態によれば、動作変換処理ユニット30は、算出したトルクと、第3関節54、第2関節52、第1関節50の各関節部位の動作を模擬するようにトルクにおける弾性係数及び粘性抵抗係数が非線形に変化する非線形弾性要素及び非線形粘性要素を含む、仮想体Vの対応関節部位に対応した仮想体Vの運動力学モデルモデルと、を用いて、仮想体Vのモデルにおける運動結果を算出し、算出した運動結果を回転動作データとする、ことが好ましい。
ここで、一実施形態によれば、非線形弾性要素は、仮想体Vの対応関節部位の関節角度の情報に応じてトルクにおける弾性係数が非線形に変化する弾性要素であり、非線形粘性要素は、仮想体Vの対応関節部位の関節角度の情報及びこの関節角度の時間変化の情報に応じてトルクにおける粘性抵抗係数が非線形に変化する粘性要素である、ことが好ましい。
At this time, according to one embodiment, the motion conversion processing unit 30 causes the calculated torque and elasticity in torque to simulate the motion of each joint part of the third joint 54, the second joint 52, and the first joint 50. And a kinematic model model of a virtual body V corresponding to a corresponding joint part of the virtual body V, including a nonlinear elastic element and a nonlinear viscous element whose coefficient and viscous resistance coefficient change non-linearly, It is preferable to calculate the exercise result and use the calculated exercise result as the rotation motion data.
Here, according to one embodiment, the non-linear elastic element is an elastic element whose elastic coefficient in torque changes non-linearly according to the information of the joint angle of the corresponding joint part of the virtual body V, and the non-linear viscous element is the virtual It is preferable that the viscous resistance coefficient of the torque changes non-linearly according to the information of the joint angle of the corresponding joint portion of the body V and the information of the temporal change of the joint angle.

非線形弾性要素及び非線形粘性要素は、仮想体Vを操作しやすくするために導入され、また、人間の関節部位の動作を適切に模擬することができるように導入される。
例えば、非線形弾性要素のパラメータ値を適正に設けることにより、回転動作データの応答速度を実際の関節部位の回転動作の応答速度に近づけることができ、非線形粘性要素のパラメータ値を適正に設けることにより、実際の関節部位の回転動作では起こり得ない回転動作データのオーバシュートを防止することができる。
The non-linear elastic element and the non-linear viscous element are introduced in order to facilitate the operation of the virtual body V, and are introduced so that the motion of the human joint part can be appropriately simulated.
For example, by appropriately setting the parameter value of the nonlinear elastic element, the response speed of the rotational motion data can be made closer to the response speed of the actual rotational motion of the joint part, and by appropriately setting the parameter value of the nonlinear viscous element. It is possible to prevent the overshoot of the rotational motion data that cannot occur in the actual rotational motion of the joint part.

図5は、非線形弾性要素及び非線形粘性要素における非線形関数の例を説明する図である。例えば、関節角度θ,θ,θ、あるいは関節角度θ,θ,θの時間微分が所定の範囲、例えば−P th(n=1,2、または3)〜P th内にある場合は、弾性要素及び粘性要素の値は、関節角度θ,θ,θ、あるいは関節角度θ,θ,θの時間微分によって変化せず一定であるが、上記所定の範囲外にある場合、弾性要素及び粘性要素の値は、関節角度θ,θ,θ、あるいは関節角度θ,θ,θの時間微分の変化に対して急激に指数関数のように非線形に変化する。すなわち、弾性係数及び粘性抵抗係数は関節角度θ,θ,θあるいは関節角度θ,θ,θの時間微分に対して非線形に変化する。ここで、関節角度θ,θ,θは、仮想体Vの動作によって変化する対応関節部位における関節角度である。図5に示す例では、所定の範囲の上限及び下限の絶対値は、同じ値(P th)であるが、異なる値であってもよい。また、上記所定の範囲を超えると、図5に示すように、弾性要素及び粘性要素の値が、指数関数的に急激に非線形に変化するが、このときの非線形に変化する挙動は異なってもよい。さらに、上記所定の範囲を超えると、弾性要素及び粘性要素の値が、指数関数的に急激に非線形に変化する形態に限らず、急激に変化した後、その変化が徐々に小さくなる形態であってもよい。
このように、関節部位をモデル化するとき、非線形弾性要素K,K,Kと、非線形粘性要素D,D,Dと、を用いることにより、仮想体Vの回転動作を、人が意図した動作に近づけることができる。図5に示す例では、弾性要素及び粘性要素の値が一定となる範囲の上限(P th)と下限(−P th)の絶対値は同じとしたが、異なってもよい。また、非線形粘性要素D,D,Dは、関節角度θ,θ,θの時間微分及び関節角度θ,θ,θに依存して値が変化するものであってもよい。
FIG. 5 is a diagram illustrating an example of a non-linear function in a non-linear elastic element and a non-linear viscous element. For example, the joint angles θ 1 , θ 2 , θ 3 or the time derivatives of the joint angles θ 1 , θ 2 , θ 3 are in a predetermined range, for example, −P n th (n = 1, 2, or 3) to P n. If there is in the th, the value of the elastic element and a viscous element, the joint angle θ 1, θ 2, θ 3 , or joint angle theta 1, theta 2, is constant without changing the time derivative of the theta 3, If that is outside the predetermined range, the value of the elastic element and a viscous element, the joint angle θ 1, θ 2, θ 3 , or joint angle theta 1, theta 2, rapidly to changes in the time derivative of the theta 3 It changes non-linearly like an exponential function. That is, the elastic coefficient and the viscous resistance coefficient change non-linearly with respect to the joint angles θ 1 , θ 2 , θ 3 or the time derivatives of the joint angles θ 1 , θ 2 , θ 3 . Here, the joint angles θ 1 , θ 2 , and θ 3 are joint angles at corresponding joint portions that change according to the motion of the virtual body V. In the example shown in FIG. 5, the absolute values of the upper limit and the lower limit of the predetermined range are the same value (P n th ), but may be different values. Further, when the value exceeds the predetermined range, as shown in FIG. 5, the values of the elastic element and the viscous element change exponentially and non-linearly, but the behavior of non-linearly changing at this time is different. Good. Furthermore, when the value exceeds the predetermined range, the values of the elastic element and the viscous element are not limited to a shape in which the values of the elastic element and the viscous element change exponentially and non-linearly. May be.
As described above, when modeling the joint part, by using the nonlinear elastic elements K 1 , K 2 , and K 3 and the nonlinear viscous elements D 1 , D 2 , and D 3 , the rotational movement of the virtual body V is performed. , It is possible to get closer to the movement intended by the person. In the example shown in FIG. 5, the absolute values of the upper limit (P n th ) and the lower limit (−P n th ) of the range where the values of the elastic element and the viscous element are constant are the same, but they may be different. Also, the non-linear viscous element D 1, D 2, D 3 is the joint angle theta 1, theta 2, time derivative and joint angle theta 1 of theta 3, theta 2, be those values depending on the theta 3 is changed May be.

図6(a),(b)は、仮想体Vの動作の一例を説明する図である。図6(a)は、指が半球上の台座上にあり、この台座上において非関節部位拘束治具10で指が拘束された初期状態を再現した仮想体Vの初期状態の一例を示す。仮想体Vは、図4(a)に示す指を模擬したものである。台座上に位置する指において、非関節部位拘束治具10で拘束された指に力をいれたときのセンサー12による検出結果に基づいて指の回転動作データを作成し、この回転動作データに応じて、回転動作付与ユニット32が仮想体Vに回転動作を与えた状態を、図6(b)は示す。図6(b)に示す例では、指関節を図6(a)に示すように屈曲した状態から真っ直ぐに伸ばした様子を示している。   6A and 6B are diagrams illustrating an example of the operation of the virtual body V. FIG. 6A shows an example of the initial state of the virtual body V that reproduces the initial state in which the finger is on a pedestal on a hemisphere and the finger is restrained by the non-joint part restraint jig 10 on this pedestal. The virtual body V is a simulation of the finger shown in FIG. With respect to the finger located on the pedestal, the rotational motion data of the finger is created based on the detection result by the sensor 12 when a force is applied to the finger constrained by the non-joint part constraining jig 10, and according to the rotational motion data, 6B shows a state in which the rotation motion imparting unit 32 imparts a rotation motion to the virtual body V. The example shown in FIG. 6B shows a state in which the knuckle is straightened from the bent state as shown in FIG. 6A.

図7(a)〜(c)は、仮想体Vが図6(a),(b)に示す動作を行ったときに、図4(b)に示す第3モデル関節54a、第2モデル関節52a、第1モデル関節50aに与えた非線形弾性要素K,K,Kの特性を示す図である。図8は、仮想体Vが図6(a),(b)に示す動作を行うときに、図4(b)に示す関節部位をモデル化した第3モデル関節54a、第2モデル関節52a、第1モデル関節50aに与えた非線形粘性要素D,D,Dの特性を示す図である。図8に示すように、非線形粘性要素の特性は、関節角度θ,θ,θの時間微分によって変化する。なお、関節角度θ,θ,θは、関節部位をモデル化した第3モデル関節54a、第2モデル関節52a、第1モデル関節50aの関節の動作を規定するパラメータであって、実際の関節部位を図4(a)に示すように固定した時の固定した角度とは異なる。第1モデル関節50a、第2モデル関節52a、第3モデル関節54aの非線形粘性要素D,D,Dの特性は同じであるが、異なる特性であってもよい。 7A to 7C show the third model joint 54a and the second model joint 54a shown in FIG. 4B when the virtual body V performs the operation shown in FIGS. 6A and 6B. 52a is a diagram showing characteristics of nonlinear elastic elements K 1 , K 2 , and K 3 given to the first model joint 50a. FIG. 8 shows a third model joint 54a, a second model joint 52a, which models the joint parts shown in FIG. 4B when the virtual body V performs the operation shown in FIGS. 6A and 6B. nonlinear viscous element D 1 gave the first model articulation 50a, which is a diagram showing characteristics of the D 2, D 3. As shown in FIG. 8, the characteristic of the non-linear viscous element changes according to the time derivative of the joint angles θ 1 , θ 2 , θ 3 . It should be noted that the joint angles θ 1 , θ 2 , and θ 3 are parameters that define the motions of the joints of the third model joint 54a, the second model joint 52a, and the first model joint 50a that model the joint parts. This is different from the fixed angle when the joint part is fixed as shown in FIG. The first model joint 50a, the second model joint 52a, and the third model joint 54a have the same characteristics of the nonlinear viscous elements D 1 , D 2 , and D 3 , but may have different characteristics.

図9(a)〜(f)は、仮想体Vが図6(a),(b)に示す動作を行ったときに、図4(a)に示す非関節部位60,58,56がセンサー12a,12bに与えた力の時間変化の例を示す図である。図9(a),(b)は、非関節部位60がセンサー12a,12bに与える力の時間変化を示す。図9(c),(d)は、非関節部位58がセンサー12a,12bに与える力の時間変化を示す。図9(e),(f)は、非関節部位56がセンサー12a,12bに与える力の時間変化を示す。   9A to 9F, when the virtual body V performs the operation shown in FIGS. 6A and 6B, the non-joint portions 60, 58, and 56 shown in FIG. It is a figure which shows the example of the time change of the force given to 12a, 12b. FIGS. 9A and 9B show changes with time in the force applied to the sensors 12a and 12b by the non-joint region 60. 9 (c) and 9 (d) show changes with time of the force exerted by the non-joint portion 58 on the sensors 12a, 12b. 9E and 9F show changes with time of the force applied to the sensors 12a and 12b by the non-joint portion 56. As shown in FIG.

図10(a)〜(c)は、仮想体Vが図6(a),(b)に示す動作を行ったときに、第3モデル関節54a、第2モデル関節52a、第1モデル関節50aそれぞれの周りに作用したトルクτ,τ,τの時間変化の例を示す図である。これらのトルクτ,τ,τは、上述した距離情報(距離S、距離S、距離S)、長さの情報(長さl,l,l)、及び関節角度の情報(関節角度θ,θ,θ)を用いて算出したものである。 FIGS. 10A to 10C show the third model joint 54a, the second model joint 52a, and the first model joint 50a when the virtual body V performs the motions shown in FIGS. 6A and 6B. It is a figure which shows the example of the time change of the torque (tau) 1 , (tau) 2 , (tau) 3 which acted on each circumference | surroundings. These torques τ 1 , τ 2 , τ 3 are the distance information (distance S 1 , distance S 2 , distance S 3 ) described above, length information (lengths l 1 , l 2 , l 3 ), and joints. It is calculated using the angle information (joint angles θ 1 , θ 2 , θ 3 ).

図11(a)〜(c)は、仮想体Vが図6(a),(b)に示す動作を行ったときに、第3モデル関節54a、第2モデル関節52a、第1モデル関節50aそれぞれに与えたトルクから非線形弾性要素K,K,K及び非線形粘性要素D1,D2,D3によって生じたトルクを差し引いた残りの例を示す図である。 11A to 11C show the third model joint 54a, the second model joint 52a, and the first model joint 50a when the virtual body V performs the motions shown in FIGS. 6A and 6B. is a diagram showing the rest of the examples obtained by subtracting the torque resulting from torque applied to each by the nonlinear elastic elements K 1, K 2, K 3 and nonlinear viscous elements D1, D2, D3.

図12(a)〜(c)は、は、仮想体Vが図6(a),(b)に示す動作を行ったときに、第3モデル関節54a、第2モデル関節52a、第1モデル関節50aそれぞれの関節角度θ,θ,θが示した時間変化の例を示す図である。なお、関節角度θ,θ,θは、関節部位をモデル化した第3モデル関節54a、第2モデル関節52a、第1モデル関節50aの関節の動作を規定するパラメータであって、実際の関節部位を図4(a)に示すように固定した時の固定した角度とは異なる。 12A to 12C show the third model joint 54a, the second model joint 52a, and the first model when the virtual body V performs the operation shown in FIGS. 6A and 6B. It is a figure which shows the example of the time change which the joint angles (theta) 1 , (theta) 2 , (theta) 3 of each joint 50a showed. The joint angles θ 1 , θ 2 , and θ 3 are parameters that define the motions of the joints of the third model joint 54a, the second model joint 52a, and the first model joint 50a that model the joint parts, and are actually parameters. This is different from the fixed angle when the joint part is fixed as shown in FIG.

このように、データ処理装置14は、非関節部位拘束治具10で指が拘束された状態で、センサー12が検出した検出結果を用いて、関節角度θ,θ,θを算出し、この関節角度θ,θ,θを回転動作データとして仮想体Vの対応関節部位に回
転動作を与えて、仮想体Vを動作させることができる。ディプレイ26あるいはウェアラブルディスプレイ18は、図6(a),(b)に示すような、仮想体Vの回転動作を画面表示することができる。
As described above, the data processing device 14 calculates the joint angles θ 1 , θ 2 , and θ 3 by using the detection result detected by the sensor 12 while the finger is restrained by the non-joint part restraint jig 10. By using the joint angles θ 1 , θ 2 , and θ 3 as rotational motion data, the virtual body V can be operated by applying a rotational motion to the corresponding joint part of the virtual body V. The display 26 or the wearable display 18 can display the rotation operation of the virtual body V on the screen as shown in FIGS. 6A and 6B.

図13(a),(b)は、本実施形態の方法及び従来の方法で行った仮想体のタスク内容とその仮想体の動作結果の一例を示す図である。図13(b)には、上述の方法で仮想体Vに指の動作を模擬させて動作させたときの結果の一例(実施例)と、従来の方法で仮想体Vの指に、実施例と同じ指の動作を模擬させて動作させたときの結果の一例(従来例)が示されている。
従来例では、非関節部位の動作(変位)をカメラで撮影するモーションキャプチャデバイス(https://www.leapmotion.com/motion-live/)を用いて非関節部位及び関節部位の動作を取得し、この取得した動作を仮想体Vに反映させた。
指の動作は、図13(a)に示すように、真っ直ぐに伸ばした人差し指を曲げて○印の目標到達点まで動かす動作である。図13(b)では、目標到達点からの距離の時間変化を示している。図13(b)からわかるように、実施例では、人差し指の先端が従来例と略同じ時間に目標到達点に到達していることがわかる。これより、本実施形態の方法は、従来のモーションキャプチャの技術と同様に、仮想体Vに、人体の動作を精度よく模擬して動作させることができる、といえる。
13A and 13B are diagrams showing an example of task contents of a virtual body and operation results of the virtual body performed by the method of this embodiment and the conventional method. FIG. 13B shows an example (example) of the result when the virtual body V is made to operate by simulating the operation of the finger by the above-described method, and an example of the result of the conventional method for the finger of the virtual body V is shown. An example (conventional example) of a result obtained by simulating the same finger movement as in (1) is shown.
In the conventional example, a motion capture device (https://www.leapmotion.com/motion-live/) that captures the motion (displacement) of the non-joint part with a camera is used to acquire the motion of the non-joint part and the joint part. The acquired action is reflected in the virtual body V.
The operation of the finger is, as shown in FIG. 13A, an operation of bending the straightened index finger and moving the index finger to a target reaching point indicated by a circle. FIG. 13B shows the change over time in the distance from the target reaching point. As can be seen from FIG. 13B, in the example, it is found that the tip of the index finger reaches the target reaching point at substantially the same time as in the conventional example. From this, it can be said that the method according to the present embodiment can cause the virtual body V to accurately simulate the movement of the human body, as in the conventional motion capture technology.

一実施形態によれば、データ処理装置14は、上述したように、回転動作付与ユニット32による回転動作の付与に応じて、非関節部位に回転動作を人体に実感させるための振動刺激の信号を生成する刺激制御ユニットを備えることが好ましい。この場合、刺激制御ユニットと接続され、生成した振動刺激の信号により、非関節部位に振動刺激を与える、非関節部位拘束治具10に設けられた振動子16(刺激付与振動子)が図1に示されるように設けられることが好ましい。振動刺激により、関節部位及び非回転部位が固定されているにも拘らず、関節部位があたかも回転動作した錯覚を受けることができ、回転動作した関節部位の状態から、人体がさらに意図した回転動作をするように非関節部位に与える力を調整しようとする。このため、関節部位及び非関節部位が固定されていても、上記錯覚した関節部位の状態から、意図した回転動作を仮想体Vは実現し易くなる。また、ディスプレイ26あるいはウェアラブルディスプレイ18には、図6(b)に示すような仮想体Vの状態が画面表示されることが好ましい。すなわち、ディスプレイ26は、回転動作付与ユニット32による仮想体Vへの回転動作の付与に応じて、仮想体Vの対応関節部位に回転動作を与えて動作する仮想体Vの画像を表示させることが好ましい。これにより、この画面を見た仮想体Vの操作者は、自分の手があたかも回転動作したかのような錯覚を受けて、人体がさらに意図した回転動作をするように、操作者は、非関節部位に与える力を調整しようとする。   According to one embodiment, as described above, the data processing device 14 transmits the signal of the vibration stimulus for making the human body actually feel the rotational motion at the non-joint part in response to the rotational motion imparted by the rotational motion imparting unit 32. It is preferable to provide a stimulus control unit to generate. In this case, the vibrator 16 (stimulation applying vibrator) provided in the non-joint part restraint jig 10 that is connected to the stimulus control unit and applies the vibration stimulus to the non-joint part by the generated signal of the vibration stimulus is shown in FIG. Is preferably provided as shown in FIG. By vibrating stimulus, the joint part and the non-rotating part are fixed, but the joint part can receive the illusion that the joint part is rotating. Try to adjust the force applied to the non-joint area so that Therefore, even if the joint portion and the non-joint portion are fixed, the virtual body V can easily realize the intended rotation operation from the state of the illusionary joint portion. Further, it is preferable that the state of the virtual body V as shown in FIG. 6B be displayed on the screen of the display 26 or the wearable display 18. That is, the display 26 can display an image of the virtual body V that operates by applying a rotational motion to a corresponding joint part of the virtual body V according to the rotational motion imparted to the virtual body V by the rotational motion imparting unit 32. preferable. As a result, the operator of the virtual body V looking at this screen receives the illusion that his or her hand makes a rotational motion, and the operator makes a non-intended rotational motion so that the human body further performs the intended rotational motion. Try to adjust the force applied to the joint area.

一実施形態によれば、データ処理装置14はキャリブレーションユニットを備えることが好ましい。キャリブレーションユニットは、非関節部位に対応する仮想体Vの対応非関節部位が予め定めた目標回転動作を行うために、非関節部位が力を発したときの仮想体Vにおける対応非関節部位の回転動作と、目標回転動作との間の誤差を算出し、この誤差が小さくなるように、誤差に基づいて、トルク変換処理ユニット28あるいは動作変換処理ユニット30がトルクあるいは回転動作を算出する際に用いるパラメータを調整することが好ましい。パラメータの例として、図5に示す非線形弾性要素や非線形粘性要素における、上限の閾値P th,下限の閾値−P th,指数関数の肩に用いるα,βが挙げられる。このようなキャリブレーションは、仮想体Vに、人体の動作を模擬した動作をさせる制御前に行われる。 According to one embodiment, the data processing device 14 preferably comprises a calibration unit. Since the calibration unit performs a predetermined target rotation operation on the corresponding non-joint portion of the virtual body V corresponding to the non-joint portion, the calibration unit detects the corresponding non-joint portion of the virtual body V when the non-joint portion generates a force. When the torque conversion processing unit 28 or the motion conversion processing unit 30 calculates the torque or the rotation operation based on the error, the error between the rotation operation and the target rotation operation is calculated, and the error is reduced. It is preferable to adjust the parameters used. Examples of the parameters include the upper limit threshold P n th , the lower limit threshold −P n th , and α and β used for the shoulders of the exponential function in the nonlinear elastic element and the nonlinear viscous element shown in FIG. Such calibration is performed before the control for causing the virtual body V to perform an operation that simulates the operation of the human body.

図14(a)〜(c)は、センサー12による検出結果に基づいて得られる仮想体Vの回転動作のキャリブレーションの一例を説明する図である。図14(a),(b)は、図4(b)に示すモデルを用いてその動作を示している。仮想体Vの回転動作は、図4(b)に示すモデルの回転動作と同じである。   14A to 14C are diagrams illustrating an example of calibration of the rotation operation of the virtual body V obtained based on the detection result of the sensor 12. FIGS. 14A and 14B show the operation using the model shown in FIG. 4B. The rotation operation of the virtual body V is the same as the rotation operation of the model shown in FIG.

図14(a),(b)に示すように、仮想体Vの指先端(非関節部位)の動作102(図14(b)参照)が、目標動作である円弧形状の動作100(図14(a)参照)をするように、仮想体Vの指先端(非関節部位)の動作102と目標の円弧形状の動作100との間の誤差104(図14(c)参照)を算出し、この誤差104が小さくなるように、この誤差104に基づいて、トルクあるいは回転動作データを算出する際に用いるパラメータを調整する。パラメータは、例えば、図5に示す非線形弾性要素や非線形粘性要素のパラメータ、例えば、指数関数の肩に用いる定数α、β、閾値±P th等を調整する。目標動作は、円弧形状の動作に限られず、水平方向に沿った直線形状の動作や垂直方向に沿った直線形状の動作であってもよい。 As shown in FIGS. 14A and 14B, a motion 102 (see FIG. 14B) of the finger tip (non-joint part) of the virtual body V is an arc-shaped motion 100 (FIG. 14) that is a target motion. (See (a)), the error 104 (see FIG. 14 (c)) between the motion 102 of the finger tip (non-joint part) of the virtual body V and the target arc-shaped motion 100 is calculated, Based on the error 104, the parameter used when calculating the torque or the rotational motion data is adjusted so that the error 104 becomes smaller. As the parameters, for example, parameters of the nonlinear elastic element and the nonlinear viscous element shown in FIG. 5, for example, constants α and β used for shoulders of exponential functions, threshold values ± P n th, and the like are adjusted. The target motion is not limited to an arcuate motion, and may be a linear motion along the horizontal direction or a linear motion along the vertical direction.

一実施形態によれば、図4(a),(b)に示すように、関節部位は、手の指関節部位を複数含み、仮想体Vの対応関節部位における回転動作は、仮想体Vの対応する指の曲げ伸ばし動作を含む、ことが好ましい。また、一実施形態によれば、腕の関節部位を複数含み、仮想体Vの対応関節部位における回転動作は、仮想体Vの対応する腕の曲げ伸ばし動作を含む、ことも好ましい。このような複数の指関節部位、あるいは腕の根元に位置する肩関節部位、肘関節部位、及び腕の先端に位置する手首関節部位を含む回転動作は、複雑な動きをするが、データ処理装置14を含む仮想体Vの動作制御システムを用いることで、複雑な動きであっても、正確に動作を再現することができる。
また、一実施形態によれば、関節部位は、脚及び腰の関節部位を複数含み、対応関節部位における回転動作は、仮想体Vの対応する脚による歩行動作を含む、ことが好ましい。このような回転動作を、人体を図1に示すように固体した状態で、再現することができるので、人体が位置する実空間に比べて広い仮想空間内における仮想体Vの動作を、狭い実空間に人体があっても問題なく動作させることができる。
According to one embodiment, as shown in FIGS. 4A and 4B, the joint part includes a plurality of finger joint parts of the hand, and the rotational motion at the corresponding joint part of the virtual body V is the same as that of the virtual body V. It preferably includes a corresponding bending and unfolding action of the finger. Further, according to one embodiment, it is also preferable that a plurality of joint parts of the arm are included, and the rotational motion at the corresponding joint part of the virtual body V includes bending and stretching motion of the corresponding arm of the virtual body V. Such a plurality of finger joint parts, or a shoulder joint part located at the base of an arm, an elbow joint part, and a wrist joint part located at the tip of an arm have complicated motions, but a data processing device By using the motion control system of the virtual body V including 14 it is possible to accurately reproduce the motion even with complicated motion.
Further, according to one embodiment, it is preferable that the joint part includes a plurality of joint parts of a leg and a waist, and the rotational motion at the corresponding joint part includes a walking motion by the corresponding leg of the virtual body V. Since such a rotating motion can be reproduced in a solid state of the human body as shown in FIG. 1, the motion of the virtual body V in a virtual space wider than the real space in which the human body is located can be reproduced in a narrow real space. Even if there is a human body in the space, it can be operated without problems.

図15は、人体拘束治具の一形態である人差し指の動作を拘束する指拘束治具の一例の概観斜視図である。
図15に示す指拘束治具100は、非関節部位拘束治具10と、センサー12a,12bと、を備える。
FIG. 15 is a schematic perspective view of an example of a finger restraint jig that restrains the action of the index finger, which is one form of the human body restraint jig.
The finger restraint jig 100 shown in FIG. 15 includes a non-joint portion restraint jig 10 and sensors 12a and 12b.

非関節部位拘束治具10は、人差し指の非関節部位56,58,60(図4(a)参照)それぞれの動作を拘束する。非関節部位拘束治具10は、人差し指の非関節部位56,58,60の腹側部分を載せる基台156a,158a,160aと、非関節部位56,58,60の背側の部分に対応して直線状に延びるフレーム部156b,158b,160bと、を備える。非関節部位拘束治具10は、人差し指の第1関節50、第2関節52及び第3関節54の屈曲にあわせて、第1関節50、第2関節52、及び第3関節の対応する部分が自在に曲がるように構成されている。具体的には、フレーム部156bは、フレーム部158bに回転可能に軸支され、フレーム部158bは、フレーム部160bに回転可能に軸支され、フレーム部160bは、第3関節54に対応する部分に回転可能に軸支されている。   The non-joint part restraint jig 10 restrains the motion of each of the non-joint parts 56, 58, 60 (see FIG. 4A) of the index finger. The non-joint part restraint jig 10 corresponds to the bases 156a, 158a, 160a on which the ventral parts of the non-joint parts 56, 58, 60 of the index finger are placed, and the back part of the non-joint parts 56, 58, 60. And frame portions 156b, 158b, 160b extending linearly. In the non-joint part restraint jig 10, the corresponding portions of the first joint 50, the second joint 52, and the third joint correspond to the bending of the first joint 50, the second joint 52, and the third joint 54 of the index finger. It is configured to bend freely. Specifically, the frame portion 156b is rotatably supported by the frame portion 158b, the frame portion 158b is rotatably supported by the frame portion 160b, and the frame portion 160b is a portion corresponding to the third joint 54. It is rotatably supported by.

センサー12a,12bは、フレーム部156b,158b,160bのそれぞれの場所に設けられ、関節部位を動作させようとするときに非関節部位56,58,60それぞれが基台156a,158a,160a及びフレーム部156b,158b,160bに作用する力又は圧力の情報を検出し、力又は圧力の情報を外部のデータ処理装置14に出力するように構成されている。
センサー12a,12bは、第1関節50及び第2関節52の屈伸により非関節部位50,52,54が動こうとする方向の、非関節部位56,58,60を挟んだフレーム部156b,158b,160b及び基台156a,158a,160aに設けられている。
このように、センサー12a,12bが、非関節部位56,58,60を挟んだ非関節部位拘束治具10の両側に設けられているので、非関節部位56,58,60それぞれが動作しなくても、第1関節50、第2関節52、及び第3関節54に作用するトルクを得ることができる。
The sensors 12a and 12b are provided at the respective positions of the frame portions 156b, 158b and 160b, and the non-joint portions 56, 58 and 60 are respectively mounted on the bases 156a, 158a and 160a and the frame when the joint portions are operated. It is configured to detect the force or pressure information acting on the units 156b, 158b, 160b and output the force or pressure information to the external data processing device 14.
The sensors 12a and 12b include frame portions 156b and 158b sandwiching the non-joint portions 56, 58 and 60 in a direction in which the non-joint portions 50, 52 and 54 try to move due to bending and stretching of the first joint 50 and the second joint 52. , 160b and bases 156a, 158a, 160a.
As described above, the sensors 12a and 12b are provided on both sides of the non-joint portion restraint jig 10 sandwiching the non-joint portions 56, 58 and 60, respectively, so that the non-joint portions 56, 58 and 60 do not operate, respectively. However, the torque acting on the first joint 50, the second joint 52, and the third joint 54 can be obtained.

指は、人によって非関節部位56、58,60の長さが異なるため、フレーム部156b,158b,160bは、非関節部位56、58,60の長さに応じて伸縮するように構成されている。フレーム部156b,158b,160bの伸縮に合わせて、基台156a,158a,160aも移動させることができる。
したがって、指拘束治具100は、人差し指の非関節部位56,58,60の長さに合わせて自在に調整することができ、第1関節50、第2関節52、及び第3関節54の屈曲にあわせてフレーム部156bとフレーム部158bの間、フレーム部158bとフレーム部160bとの間を自在に屈曲させることができる。
Since the length of the non-joint parts 56, 58, 60 of the finger differs depending on the person, the frame parts 156b, 158b, 160b are configured to expand and contract according to the length of the non-joint parts 56, 58, 60. There is. The bases 156a, 158a, 160a can also be moved according to the expansion and contraction of the frame parts 156b, 158b, 160b.
Therefore, the finger restraint jig 100 can be freely adjusted according to the lengths of the non-joint portions 56, 58, 60 of the index finger, and the bending of the first joint 50, the second joint 52, and the third joint 54. Accordingly, the space between the frame portion 156b and the frame portion 158b and the space between the frame portion 158b and the frame portion 160b can be freely bent.

一実施形態によれば、非関節部位拘束治具10は、非関節部位拘束治具10により拘束された非関節部位56,58,60が非関節部位拘束治具10に力又は圧力を付与する位置と第1関節50、第2関節52、及び第3関節54との間の距離情報、非関節部位56,58,60の長さの情報、及び非関節部位拘束治具10が非関節部位56,58,60を拘束したときの第1関節50及び第2関節52の関節角度の情報の少なくとも1つを計測し、計測結果を事前にデータ処理装置14に出力する計測装置を備えることが好ましい。関節角度は、上述のフレーム部156bとフレーム部158bの間の屈曲角度、フレーム部158bとフレーム部160bの間の屈曲角度、フレーム部160bの水平面に対する傾斜角度を用いることができる。
なお、計測装置として、長さ及び距離の計測では例えばレーザー変位計を用いることができ、関節角度の計測では、例えばロータリーポテンショメータやエンコーダを用いることができる。
According to one embodiment, in the non-joint part restraint jig 10, the non-joint parts 56, 58, 60 restrained by the non-joint part restraint jig 10 apply force or pressure to the non-joint part restraint jig 10. The distance information between the position and the first joint 50, the second joint 52, and the third joint 54, the information on the lengths of the non-joint portions 56, 58, and 60, and the non-joint portion restraint jig 10 is the non-joint portion. A measurement device that measures at least one piece of information about the joint angles of the first joint 50 and the second joint 52 when 56, 58, and 60 are restrained and outputs the measurement result to the data processing device 14 in advance is provided. preferable. As the joint angle, the bending angle between the frame portion 156b and the frame portion 158b, the bending angle between the frame portion 158b and the frame portion 160b, and the inclination angle of the frame portion 160b with respect to the horizontal plane can be used.
As the measuring device, for example, a laser displacement meter can be used for measuring the length and distance, and a rotary potentiometer or an encoder can be used for measuring the joint angle.

図16は、人差し指ではなく、脚の動作を拘束する脚拘束治具の一例の概観斜視図である。図16に示す脚拘束治具は、椅子に腰掛けた状態で、骨盤からひざ関節部位までの大腿部、ひざ関節部位から足首関節部位までの下腿部、及び足首関節部位から足先端までの部分を、非関節部位とし拘束する。このような脚拘束治具は、図15に示す指拘束治具と同様に、非関節部位に対応して直線状に延びるフレーム部を用いて構成することができる。この装置構成は、指拘束治具100と同じ構成であるので、その説明は省略する。脚拘束治具においても、図示されないが、センサー12a,12bが、ひざ関節部位及び足首関節部位の屈伸により非関節部位が動こうとする方向の、非関節部位を挟んだ非関節部位拘束治具の両側に設けられる。   FIG. 16 is a schematic perspective view of an example of a leg restraint jig that restrains the movement of the leg, not the index finger. The leg restraint jig shown in FIG. 16 is used in a state of sitting on a chair, from the pelvis to the knee joint part, the thigh from the knee joint part to the ankle joint part, and from the ankle joint part to the tip of the foot. The part is restrained as a non-joint part. Like the finger restraint jig shown in FIG. 15, such a leg restraint jig can be configured using a frame portion that linearly extends corresponding to the non-joint portion. This device configuration is the same as that of the finger restraint jig 100, and therefore its description is omitted. Also in the leg restraint jig, although not shown, the sensors 12a and 12b are non-joint portion restraining jigs sandwiching the non-joint portion in a direction in which the non-joint portion tries to move due to bending and stretching of the knee joint portion and the ankle joint portion. It is provided on both sides of.

上述した仮想体Vの動作の制御は、以下の方法により実現することができる。
すなわち、仮想体Vの動作制御方法は、
仮想体Vを操作する操作者の人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束した状態で、関節部位を動作させようとするときに非関節部位それぞれが非関節部位拘束治具10に作用する力、圧力、又は関節部位周りに作用するトルクに関する情報、あるいは、拘束された非関節部位それぞれの筋電情報を検出するステップと、
検出するステップの検出結果を用いて、関節部位に働くトルクを算出するステップと、
算出したトルクを用いて、関節部位に対応する仮想体Vの対応関節部位の動きを表す回転動作データを算出するステップと、
算出した回転動作データに応じて、仮想体Vの対応関節部位に回転動作を与えるステップと、を備える。
The control of the operation of the virtual body V described above can be realized by the following method.
That is, the operation control method of the virtual body V is
When attempting to operate the joint parts while restraining the motions of the two non-joint parts sandwiching at least one joint part of the human body of the operator operating the virtual body V, the respective non-joint parts are the non-joint parts. A step of detecting information on a force, a pressure, or a torque acting around the joint portion acting on the restraint jig 10, or myoelectric information of each restrained non-joint portion;
Calculating the torque acting on the joint part using the detection result of the detecting step;
Using the calculated torque, calculating a rotational motion data representing a motion of the corresponding joint part of the virtual body V corresponding to the joint part;
A step of applying a rotational motion to the corresponding joint part of the virtual body V according to the calculated rotational motion data.

このように、人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束した状態で、関節部位を動作させようとするときに検出される力、圧力、又はトルクに関する情報あるいは筋電情報を用いて、仮想体Vの対応関節部位の動きを表す回転動作データを算出し、この回転動作データに応じて仮想体Vの対応関節部位に回転動作を与えるので、人体が位置する実空間に比べて広い仮想空間内における仮想体Vの動作を、狭い実空間に人体があっても問題なく動作させることができる。   As described above, information or muscles relating to the force, pressure, or torque detected when an attempt is made to operate a joint part with the motions of two non-joint parts sandwiching at least one joint part of the human body being restrained. The electric motion information is used to calculate the rotational motion data representing the motion of the corresponding joint part of the virtual body V, and the rotational motion is given to the corresponding joint part of the virtual body V according to this rotational motion data. The operation of the virtual body V in the virtual space wider than the space can be performed without any problem even if the human body exists in the narrow real space.

図17(a)は、人体の頭部〜胴体〜脚〜足の部分における、実施形態で動作を拘束する非関節部位の例を説明する図であり、図17(b)は、センサー12の配置の例を説明する図である。
頭部200は、非関節部位として、首に対して前後左右方向に動き、胸部202は、非関節部位として、首に対して前後に動き、わき腹204は、非関節部位として、首に対して左右方向に動き、下半身206は、非関節部位として、骨盤に対して前後左右方向に動く。大腿部208は、非関節部位として、骨盤に対して前後左右方向に動き、下腿部210は、非関節部位として、ひざに対して前後方向に動き、足は,足首に対して上下方向に動く。したがって、図17(b)に示すように、上記非関節部位の上記動作を拘束しつつ、上記非関節部位それぞれに上記動作方向に対応してセンサー12が配置される。図17(a),(b)では、右脚の非関節部位のみを示しており、左脚の非関節部位については示されていないが、左脚の非関節部位についても、右脚の非関節部位と同様に拘束してセンサー12が配置される。
FIG. 17A is a diagram illustrating an example of a non-joint part that restrains the motion in the embodiment in the head-body part-leg part-foot part of the human body, and FIG. It is a figure explaining the example of arrangement.
The head 200 moves as a non-joint part in the front-rear and left-right directions with respect to the neck, the chest 202 moves as a non-joint part in the front-back direction with respect to the neck, and the flank 204 as a non-joint part with respect to the neck. The lower body 206 moves in the left-right direction and moves in the front-back, left-right direction with respect to the pelvis as a non-joint portion. The thigh 208 moves in the antero-posterior direction with respect to the pelvis as a non-joint part, the lower leg 210 moves in the antero-posterior direction with respect to the knee as a non-joint part, and the foot moves up and down with respect to the ankle. Move to. Therefore, as shown in FIG. 17B, the sensor 12 is arranged in each of the non-joint portions in correspondence with the movement direction while restraining the movement of the non-joint portions. 17A and 17B, only the non-joint part of the right leg is shown, and the non-joint part of the left leg is not shown, but the non-joint part of the left leg is also shown in the non-joint part of the right leg. The sensor 12 is arranged with restraint similarly to the joint portion.

図18(a)は、人体の腕〜手の部分における、本実施形態で動作を拘束する非関節部位の例を説明する図であり、図18(b)は、センサー12の配置の例を説明する図である。
手214は、手首に対して上下左右方向に動き、前腕216は、肘に対して前後方向(あるいは左右方向)に動き、上腕218は、肩関節に対して上下左右方向(あるいは上下前後方向)に動く。したがって、図18(b)に示すように、上記非関節部位の上記動作を拘束しつつ、非関節部位それぞれに動作方向に対応してセンサー12が配置される。図18(a),(b)では、右腕〜右手の非関節部位のみを示しており、左腕〜左手の非関節部位については示されていないが、左腕〜左手の非関節部位についても、右腕〜右手の非関節部位と同様に上記動作を拘束して上記動作方向に対応してセンサー12が配置される。
FIG. 18A is a diagram for explaining an example of a non-joint part that restrains the motion in the present embodiment in the arm-hand part of the human body, and FIG. 18B is an example of the arrangement of the sensor 12. It is a figure explaining.
The hand 214 moves vertically and horizontally with respect to the wrist, the forearm 216 moves forward and backward (or left and right) with respect to the elbow, and the upper arm 218 moves vertically and horizontally with respect to the shoulder joint (or vertical and forward and backward directions). Move to. Therefore, as shown in FIG. 18B, the sensor 12 is arranged in each of the non-joint portions in correspondence with the movement direction while restraining the movement of the non-joint portions. 18A and 18B, only the non-joint part of the right arm to the right hand is shown, and the non-joint part of the left arm to the left hand is not shown, but the non-joint part of the left arm to the left hand is also shown in the right arm. ~ Like the non-joint part of the right hand, the above-mentioned movement is restricted and the sensor 12 is arranged corresponding to the above-mentioned movement direction.

図19(a)は、人体の指における、本実施形態で動作を拘束する非関節部位の例を説明する図であり、図19(b)は、センサー12の配置の例を説明する図である。
非関節部位56は、第1関節に対して上下方向に動き、非関節部位58は、第1関節あるいは第2関節に対して上下方向に動き、非関節部位60は、第2関節あるいは第3関節に対して上下左右方向に動く。したがって、図19(b)に示すように、上記非関節部位の上記動作を拘束しつつ、非関節部位それぞれにセンサー12が上記動作方向に対応して配置される。図19(a),(b)では、人差し指の非関節部位のみを示しており、他の指の非関節部位については示されていないが、他の指の非関節部位についても、人差し指の非関節部位と同様に拘束してセンサー12が動作方向に対応して配置される。
FIG. 19A is a diagram illustrating an example of a non-joint part of the finger of the human body that restrains the motion in the present embodiment, and FIG. 19B is a diagram illustrating an example of arrangement of the sensor 12. is there.
The non-joint part 56 moves vertically with respect to the first joint, the non-joint part 58 moves vertically with respect to the first joint or the second joint, and the non-joint part 60 moves with the second joint or the third joint. Moves vertically and horizontally with respect to the joint. Therefore, as shown in FIG. 19B, the sensor 12 is arranged in each of the non-joint portions in correspondence with the movement direction while restraining the movement of the non-joint portions. 19A and 19B, only the non-joint part of the index finger is shown, and the non-joint part of the other finger is not shown, but the non-joint part of the other finger is also shown in the non-joint part of the index finger. The sensor 12 is arranged corresponding to the movement direction by restraining it similarly to the joint portion.

図20(a)は、人体の関節周りの捩じり回転動作を拘束する非関節部位とセンサー12の配置の例を説明する図である。
頭部200は、非関節部位として、首201に対して捩じり回転動作をし、胸部202は、非関節部位として、腰205に対してあるいは首201に対して捩じり回転動作をし、足212は、非関節部位として、骨盤に対して捩じり回転動作をする。このため、頭部200、胸部202、足212は捩じり回転動作を拘束するとともに、関節周りに捩じり回転しようとする各非関節部位に作用する力あるいは圧力を計測するセンサー12が頭部200、胸部202、及び足212に配置される。
FIG. 20A is a diagram illustrating an example of the arrangement of the sensor 12 and the non-joint portion that restrains the twisting and rotating motion around the joint of the human body.
The head 200 is twisted and rotated with respect to the neck 201 as a non-joint portion, and the chest 202 is twisted and rotated with respect to the waist 205 or the neck 201 as a non-joint portion. The foot 212, as a non-joint portion, twists and rotates with respect to the pelvis. For this reason, the head 200, the chest 202, and the foot 212 restrain the torsional rotation motion, and the sensor 12 that measures the force or pressure acting on each non-joint portion about to twist and rotate around the joint is the head. Located on the section 200, the chest 202, and the foot 212.

図20(b)は、人体の腕の捩じり回転動作を拘束する非関節部位とセンサー12の配置の例を説明する図である。
手214は、非関節部位として、肩に対して捩じり回転動作をする。このため、手214は捩じり回転動作を拘束するとともに、肩周りに捩じり回転しようとする非関節部位に作用する力あるいは圧力を計測するセンサー12が手214に配置される。例えば、手214の甲と手のひら側それぞれにおいて、親指側と小指側の2箇所に力あるいは圧力を検知するセンサーが設けられる。
FIG. 20B is a diagram illustrating an example of the arrangement of the sensor 12 and the non-joint portion that restrains the twisting and rotating motion of the arm of the human body.
The hand 214 twists and rotates with respect to the shoulder as a non-joint portion. For this reason, the hand 214 restrains the torsional rotation operation, and the sensor 12 for measuring the force or pressure acting on the non-joint portion about to twist and rotate around the shoulder is arranged in the hand 214. For example, on the back side of the hand 214 and the palm side, sensors for detecting force or pressure are provided at two locations on the thumb side and the little finger side, respectively.

図17〜20に示す非関節部位の動作の拘束とセンサー12の配置は、お互いに組み合わせて適用してもよいし、拘束しようとする非関節部位とその動作に応じて、図17〜20に示す非関節部位の一部の動作の拘束とセンサー12の配置を適用してもよい。   The restraint of the motion of the non-joint part and the placement of the sensor 12 shown in FIGS. 17 to 20 may be applied in combination with each other, or depending on the non-joint part to be restrained and the motion thereof, FIGS. The restriction of the movement of a part of the non-joint portion and the arrangement of the sensor 12 may be applied.

本発明の仮想体の動作制御システムは、例えば、広大な空間を有するバーチャルリアリティでの仮想体の操作、あるいは実際の遠隔空間におけるロボット等の遠隔操作に活用することができる。バーチャルリアリティの広い空間に対して人体が位置する狭い実際の空間は、インターネットカフェや自宅の空間等とすることもできる。
上記遠隔空間で操作されるロボットとして、例えば、作業者が近づけないような作業環境下の工業用ロボット、遠隔医療ロボット、あるいは災害支援ロボットが挙げられる。
INDUSTRIAL APPLICABILITY The motion control system for a virtual body of the present invention can be utilized for operating a virtual body in a virtual reality having a vast space, or for remote control of a robot or the like in an actual remote space. The narrow actual space where the human body is located can be used as the space of the virtual reality, such as the space of the Internet cafe or home.
Examples of the robot operated in the remote space include an industrial robot, a remote medical robot, and a disaster support robot in a work environment in which a worker cannot approach.

以上、本発明の仮想体の動作制御システム、仮想体の動作制御方法、及び人体拘束治具について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更してもよいのはもちろんである。   Although the virtual body motion control system, the virtual body motion control method, and the human body restraint jig of the present invention have been described above in detail, the present invention is not limited to the above-described embodiments and does not depart from the gist of the present invention. Of course, various improvements and changes may be made.

1 仮想体の動作制御システム
3 ベッド
10 非関節部位拘束治具
12,12a,12b センサー
14 データ処理装置
16 振動子
18 ウェアラブルディスプレイ
20 CPU
22 メモリ
24 入力操作系
26 ディスプレイ
28 トルク変換処理ユニット
30 動作変換処理ユニット
32 回転動作付与ユニット
50 第1関節
50a 第1モデル関節
52 第2関節
52a 第2モデル関節
54 第3関節
54a 第3モデル関節
56,58,60 非関節部位
56a,58a,60a モデル非関節部位
100 円弧形状の動作
102 仮想体Vの指先端の動作
104 誤差
156a,158a,160a 基台
156b,158b,160b フレーム部
200 頭部
201 首
202 胸部
205 腰
204 わき腹
206 下半身
208 大腿部
210 下腿部
212 足
214 手
216 前腕
218 上腕
1 Virtual body motion control system 3 Bed 10 Non-joint part restraint jig 12, 12a, 12b Sensor 14 Data processing device 16 Transducer 18 Wearable display 20 CPU
22 memory 24 input operation system 26 display 28 torque conversion processing unit 30 motion conversion processing unit 32 rotational motion imparting unit 50 first joint 50a first model joint 52 second joint 52a second model joint 54 third joint 54a third model joint 56, 58, 60 Non-joint part 56a, 58a, 60a Model non-joint part 100 Arc-shaped motion 102 Motion of finger tip of virtual body V 104 Error 156a, 158a, 160a Base 156b, 158b, 160b Frame part 200 Head 201 Neck 202 Chest 205 Waist 204 Side Belly 206 Lower Body 208 Thigh 210 Lower Thigh 212 Foot 214 Hand 216 Forearm 218 Upper Arm

Claims (11)

人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御システムであって、
人体の少なくとも1つの関節部位を間に挟む2つの非関節部位それぞれの動作を拘束する非関節部位拘束治具と、
前記非関節部位拘束治具それぞれの場所に設けられ、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りに作用するトルクに関する情報、あるいは、拘束された前記非関節部位それぞれの筋電情報を検出するセンサーと、
前記センサーによる検出結果を処理して、前記仮想体の動作を制御するデータ処理装置と、を備え、
前記データ処理装置は、
前記センサーによる検出結果を用いて、前記関節部位に働くトルクを算出するトルク変換処理ユニットと、
算出した前記トルクを用いて、前記関節部位に対応する前記仮想体の対応関節部位の動きを表す回転動作データを算出する動作変換処理ユニットと、
算出した前記回転動作データに応じて、前記仮想体の前記対応関節部位に回転動作を与える回転動作付与ユニットと、を備える、ことを特徴とする仮想体の動作制御システム。
A motion control system for a virtual body capable of simulating at least part of the motion of a human body,
A non-joint part restraint jig that restrains the movement of each of two non-joint parts that sandwich at least one joint part of the human body;
The force, pressure, or the circumference of the joint portion, which is provided at each of the non-joint portion restraint jigs, and acts on the non-joint portion restraint jig when the joint portion is operated. Information about the torque acting on the, or a sensor that detects myoelectric information of each of the constrained non-joint site,
A data processing device that processes the detection result of the sensor to control the operation of the virtual body,
The data processing device,
A torque conversion processing unit that calculates a torque acting on the joint portion using the detection result of the sensor,
A motion conversion processing unit that uses the calculated torque to calculate rotational motion data that represents the motion of a corresponding joint part of the virtual body corresponding to the joint part;
And a rotation motion imparting unit that imparts a rotation motion to the corresponding joint portion of the virtual body according to the calculated rotation motion data.
前記トルク変換処理ユニットは、前記非関節部位拘束治具に作用する力又は圧力の情報、前記非関節部位拘束治具により拘束された前記非関節部位が前記非関節部位拘束治具に前記力又は前記圧力を付与する位置と前記関節部位との間の距離情報、前記非関節部位の長さの情報、及び前記非関節部位拘束治具が前記非関節部位を拘束したときの前記関節部位の関節角度の情報を用いて、前記トルクを算出する、請求項1に記載の仮想体の動作制御システム。   The torque conversion processing unit is configured such that information on force or pressure acting on the non-joint part restraint jig, the non-joint part restrained by the non-joint part restraint jig is applied to the non-joint part restraint jig by the force or pressure. Distance information between the position to which the pressure is applied and the joint part, information on the length of the non-joint part, and a joint of the joint part when the non-joint part restraining jig restrains the non-joint part. The virtual body motion control system according to claim 1, wherein the torque is calculated using angle information. 前記動作変換処理ユニットは、前記トルクと、前記関節部位の動作を模擬するようにトルクにおける弾性係数が非線形に変化する非線形弾性要素、及びトルクにおける粘性抵抗係数が非線形に変化する非線形粘性要素を含む前記対応関節部位に対応した前記仮想体の運動力学モデルと、を用いて、前記仮想体の運動力学モデルにおける運動結果を算出し、算出した前記運動結果を前記回転動作データとする、請求項1又は2に記載の仮想体の動作制御システム。   The motion conversion processing unit includes the torque, a non-linear elastic element in which the elastic coefficient in torque changes non-linearly so as to simulate the motion of the joint portion, and a non-linear viscous element in which the viscous resistance coefficient changes non-linearly in torque. The kinematic model of the virtual body corresponding to the corresponding joint part is used to calculate a motion result in the kinematic model of the virtual body, and the calculated motion result is used as the rotational motion data. Alternatively, the operation control system of the virtual body according to the item 2. 前記回転動作の付与に応じて、前記非関節部位あるいは前記関節部位に前記回転動作を実感させるための刺激信号を生成する刺激制御ユニットと、
前記刺激制御ユニットと接続され、生成した前記刺激信号により、前記非関節部位あるいは前記関節部位に刺激を付与する刺激付与素子と、を備える、請求項1〜3のいずれか1項に記載の仮想体の動作制御システム。
A stimulation control unit that generates a stimulation signal for making the non-joint portion or the joint portion experience the rotating motion according to the application of the rotating motion;
The stimulus imparting element, which is connected to the stimulus control unit and applies a stimulus to the non-joint site or the joint site by the generated stimulus signal, the virtual according to any one of claims 1 to 3. Body motion control system.
前記回転動作の付与に応じて、前記対応関節部位に回転動作を与えて動作する前記仮想体の画像を表示させるディスプレイを備える、請求項1〜4のいずれか1項に記載の仮想体の動作制御システム。   The operation of the virtual body according to any one of claims 1 to 4, further comprising: a display that displays an image of the virtual body that operates by applying the rotation operation to the corresponding joint portion according to the application of the rotation operation. Control system. 前記仮想体の、前記非関節部位に対応する対応非関節部位が予め定めた目標回転動作を行うために、前記非関節部位が力を発したときの前記仮想体の前記対応非関節部位の回転動作と、前記目標回転動作との間の誤差を算出し、前記誤差が小さくなるように、前記誤差に基づいて、前記トルク変換処理ユニットあるいは前記動作変換処理ユニットが前記トルクあるいは前記回転動作データを算出する際に用いるパラメータを調整するキャリブレーションユニットを、備える、請求項1〜5のいずれか1項に記載の仮想体の動作制御システム。   Rotation of the corresponding non-joint portion of the virtual body when the non-joint portion exerts a force so that the corresponding non-joint portion of the virtual body corresponding to the non-joint portion performs a predetermined target rotation operation. An error between the operation and the target rotational operation is calculated, and the torque conversion processing unit or the operation conversion processing unit calculates the torque or the rotational operation data based on the error so that the error becomes small. The operation control system for a virtual body according to claim 1, further comprising a calibration unit that adjusts a parameter used in the calculation. 前記関節部位は、手あるいは腕の関節部位を複数含み、前記対応関節部位における回転動作は、前記仮想体の対応する指または腕の曲げ伸ばし動作を含む、請求項1〜6のいずれか1項に記載の仮想体の動作制御システム。   7. The joint part includes a plurality of joint parts of a hand or an arm, and the rotation motion in the corresponding joint part includes a bending and stretching motion of a corresponding finger or arm of the virtual body. The virtual body motion control system described in. 前記関節部位は、脚及び腰の関節部位を複数含み、前記対応関節部位における回転動作は、前記仮想体の対応する脚による歩行動作を含む、請求項1〜7のいずれか1項に記載の仮想体の動作制御システム。   The virtual joint according to any one of claims 1 to 7, wherein the joint portion includes a plurality of joint portions of a leg and a waist, and the rotational movement in the corresponding joint portion includes a walking movement by the corresponding leg of the virtual body. Body motion control system. 人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御を行うめに、人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束する人体拘束治具であって、
人体の少なくとも1つの関節部位を間に挟む2つの非関節部位それぞれの動作を拘束する非関節部位拘束治具と、
前記非関節部位拘束治具それぞれの場所に設けられ、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りのトルクに関する情報を検出し、前記力、前記圧力、又は前記トルクに関する情報を外部のデータ処理装置に出力するセンサーと、
を備え、
前記センサーは、前記関節部位の動作により前記非関節部位が動こうとする方向の、前記非関節部位を挟んだ前記非関節部位拘束治具の両側の部分それぞれに設けられている、ことを特徴とする人体拘束治具。
A human body restraint jig that restrains the movement of each of two non-joint parts that sandwich at least one joint part of the human body in order to perform the motion control of a virtual body that can simulate the motion of at least a part of the human body. And
A non-joint part restraint jig that restrains the movement of each of two non-joint parts that sandwich at least one joint part of the human body;
The force, pressure, or the circumference of the joint portion, which is provided at each of the non-joint portion restraint jigs, and acts on the non-joint portion restraint jig when the joint portion is operated. A sensor that detects information regarding the torque of, and outputs the information regarding the force, the pressure, or the torque to an external data processing device,
Equipped with
The sensor is provided on each of both sides of the non-joint part restraint jig sandwiching the non-joint part in a direction in which the non-joint part is about to move due to the motion of the joint part. A human body restraint jig.
前記非関節部位拘束治具は、前記非関節部位の寸法に応じて寸法が調整可能に構成され、
前記非関節部位拘束治具により拘束された前記非関節部位が前記非関節部位拘束治具に前記力又は前記圧力を付与する位置と前記関節部位との間の距離情報、前記非関節部位の長さの情報、及び前記非関節部位拘束治具が前記非関節部位を拘束したときの前記関節部位の関節角度の情報の少なくとも1つを計測し、計測結果を前記データ処理装置に出力する計測装置を備える、請求項9に記載の人体拘束治具。
The non-joint part restraint jig is configured such that the size can be adjusted according to the size of the non-joint part,
Distance information between a position at which the non-joint part restrained by the non-joint part restraint jig applies the force or the pressure to the non-joint part restraint jig and the joint part, and a length of the non-joint part. Measuring device for measuring at least one of information on the height and information on the joint angle of the joint part when the non-joint part restraint jig restrains the non-joint part, and outputs the measurement result to the data processing device. The human body restraint jig according to claim 9, further comprising:
人体の少なくとも一部の動作を模擬して動作することができる仮想体の動作制御方法であって、
人体の少なくとも1つの関節部位を挟む2つの非関節部位それぞれの動作を拘束した状態で、前記関節部位を動作させようとするときに前記非関節部位それぞれが前記非関節部位拘束治具に作用する力、圧力、又は前記関節部位周りのトルクに関する情報、あるいは、拘束された前記非関節部位それぞれの筋電情報を検出するステップと、
前記検出するステップの検出結果を用いて、前記関節部位に働くトルクを算出するステップと、
算出した前記トルクを用いて、前記関節部位に対応する前記仮想体の対応関節部位の動きを表す回転動作データを算出するステップと、
算出した回転動作データに応じて、前記仮想体の前記対応関節部位に回転動作を与えるステップと、を備える、ことを特徴とする仮想体の動作制御方法。
A method for controlling the motion of a virtual body, which is capable of simulating at least part of the motion of the human body,
Each of the non-joint parts acts on the non-joint part restraint jig when attempting to move the joint part in a state where the motion of each of the two non-joint parts sandwiching at least one joint part of the human body is restrained. Detecting force, pressure, or information about torque around the joint part, or myoelectric information of each of the constrained non-joint parts,
Calculating a torque acting on the joint part using the detection result of the detecting step;
Using the calculated torque, calculating rotational motion data representing the motion of the corresponding joint part of the virtual body corresponding to the joint part;
A step of giving a rotational motion to the corresponding joint part of the virtual body in accordance with the calculated rotational motion data, the motion control method of the virtual body.
JP2019163861A 2018-11-07 2019-09-09 Virtual body motion control system, human body restraint jig, and virtual body motion control method Active JP7359422B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018209515 2018-11-07
JP2018209515 2018-11-07

Publications (2)

Publication Number Publication Date
JP2020077374A true JP2020077374A (en) 2020-05-21
JP7359422B2 JP7359422B2 (en) 2023-10-11

Family

ID=70724198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163861A Active JP7359422B2 (en) 2018-11-07 2019-09-09 Virtual body motion control system, human body restraint jig, and virtual body motion control method

Country Status (1)

Country Link
JP (1) JP7359422B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (en) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd Motion capture device and motion capture method
JP2013535039A (en) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
JP2015204091A (en) * 2014-04-16 2015-11-16 康太郎 高濱 vector data output system and video display system
JP2015228115A (en) * 2014-05-30 2015-12-17 富士通株式会社 Input device
WO2017118939A1 (en) * 2016-01-07 2017-07-13 Shrivastava Harshit Intent based inputs and forced feedback system for a virtual reality system
JP2017213319A (en) * 2016-06-02 2017-12-07 株式会社ブリヂストン Joint torque measurement method, inverse dynamics calculation system, and joint torque measurement program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (en) * 2008-06-30 2010-01-21 Samsung Electronics Co Ltd Motion capture device and motion capture method
JP2013535039A (en) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
JP2015204091A (en) * 2014-04-16 2015-11-16 康太郎 高濱 vector data output system and video display system
JP2015228115A (en) * 2014-05-30 2015-12-17 富士通株式会社 Input device
WO2017118939A1 (en) * 2016-01-07 2017-07-13 Shrivastava Harshit Intent based inputs and forced feedback system for a virtual reality system
JP2017213319A (en) * 2016-06-02 2017-12-07 株式会社ブリヂストン Joint torque measurement method, inverse dynamics calculation system, and joint torque measurement program

Also Published As

Publication number Publication date
JP7359422B2 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
JP7366961B2 (en) Method and device for driving illusionary tactile force sense
JP5414380B2 (en) Image processing method and image processing apparatus
JP6049788B2 (en) Virtual tool operation system
US7117136B1 (en) Input and feedback system
Fu et al. Human-arm-and-hand-dynamic model with variability analyses for a stylus-based haptic interface
US20040254771A1 (en) Programmable joint simulator with force and motion feedback
WO2019059364A1 (en) Remote control manipulator system and control device
Cortés et al. Upper Limb Posture Estimation in Robotic and Virtual Reality‐Based Rehabilitation
Rotella et al. Hapi bands: a haptic augmented posture interface
Ryu et al. Gamesbond: Bimanual haptic illusion of physically connected objects for immersive vr using grip deformation
JP2002182817A (en) Force sense presentation device
CN105892626A (en) Lower limb movement simulation control device used in virtual reality environment
Ferre et al. Haptic device for capturing and simulating hand manipulation rehabilitation
Syrseloudis et al. A parallel robot for ankle rehabilitation-evaluation and its design specifications
Stanley et al. Design of body-grounded tactile actuators for playback of human physical contact
JP4463120B2 (en) Imitation robot system and its imitation control method
KR101555999B1 (en) Control method of Training robot for leg rehabilitation
EP2988289A1 (en) Medical procedure simulator
JP7359422B2 (en) Virtual body motion control system, human body restraint jig, and virtual body motion control method
RU2670649C9 (en) Method of manufacturing virtual reality gloves (options)
Sergenti et al. Design and testing of an active balancing board for exergames
Pan et al. Interactive balance rehabilitation tool with wearable skin stretch device
JP6045338B2 (en) Posture sensation system and posture evaluation system
Guo et al. A novel motor function training assisted system for upper limbs rehabilitation
Frey et al. Physical interaction with a virtual knee joint—the 9 DOF haptic display of the munich knee joint simulator

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7359422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150