JP7662246B1 - Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space - Google Patents
Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space Download PDFInfo
- Publication number
- JP7662246B1 JP7662246B1 JP2024164900A JP2024164900A JP7662246B1 JP 7662246 B1 JP7662246 B1 JP 7662246B1 JP 2024164900 A JP2024164900 A JP 2024164900A JP 2024164900 A JP2024164900 A JP 2024164900A JP 7662246 B1 JP7662246 B1 JP 7662246B1
- Authority
- JP
- Japan
- Prior art keywords
- finger
- sensor
- alphabet
- hand
- glove
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】指を開く、曲げる、添える等の指や手の動作をデバイスを利用することで高精度に認識して、それを指文字に変換して、さらにその結果をパソコンやスマートフォンなどの外部機器において指文字を介して音声,文字,点字などいずれかの手段として出力することで視覚障がい者と別空間の人間との間でも円滑なコミュニケーションを図ることのできる手指動作認識デバイスおよびそのデバイスを用いた指文字出力方法を提供することを課題とする。
【解決手段】本発明は、予め定められた複数種類の人の動作をセンサーにより検知する動作検知部2と、人の動作に対応する指文字を入力するための指文字情報を外部機器UTに出力する指文字情報出力部3と、を有して、動作検知部2は、手の5本指に装着されて、5本の各指の動作を検知するセンサーを備えた手袋型デバイス2を有する手指動作認識デバイス1とする。
【選択図】図1
[Problem] The objective of the present invention is to provide a finger movement recognition device and a finger alphabet output method using the device that can recognize finger and hand movements such as opening, bending, and placing fingers with a high degree of accuracy by using the device, converting the movements into finger alphabets, and outputting the results as voice, text, Braille, or other means via the finger alphabet on an external device such as a personal computer or smartphone, thereby enabling smooth communication between visually impaired people and people in another space.
[Solution] The present invention provides a hand movement recognition device 1 having a movement detection unit 2 that uses a sensor to detect multiple predetermined types of human movements, and a finger alphabet information output unit 3 that outputs finger alphabet information for inputting finger alphabets corresponding to human movements to an external device UT, where the movement detection unit 2 is worn on the five fingers of the hand and has a glove-type device 2 equipped with sensors that detect the movements of each of the five fingers.
[Selected Figure] Figure 1
Description
本発明は、手指の動作を認識する手指動作認識デバイス、そのデバイスを用いた指文字出力方法および仮想空間(メタバース等)内で操作者が自身の分身(アバター)を操作するための手袋型デバイスに関する。特に、手袋型のデバイスを用いて手や指の形や向きを検出し、これを指文字として認識する技術に関する。 The present invention relates to a hand and finger motion recognition device that recognizes hand and finger motions, a method for outputting finger alphabets using the device, and a glove-type device that enables an operator to control his or her own avatar in a virtual space (such as the metaverse). In particular, the present invention relates to a technology that uses a glove-type device to detect the shape and orientation of hands and fingers and recognizes this as finger alphabets.
従来、手指の動作を検出してそれを入力情報として利用する技術が知られている。例えば、特許文献1では、手袋型デバイスを用いて手指の動きを検出する技術が開示されている。また、特許文献2では、手指の動きを元に特定の動作を認識する技術が開示されている。 Conventionally, there are known technologies that detect finger movements and use them as input information. For example, Patent Document 1 discloses a technology that detects finger movements using a glove-type device. Furthermore, Patent Document 2 discloses a technology that recognizes specific movements based on finger movements.
しかしながら、視覚障がい者と健常者のコミュニケーションは、点字や音声による出力を利用したものであり、手や指の形状や動きを認識する技術も研究されているものの、これらのコミュニケーションツールは、全ての人が使いこなすためには、点字専用のデバイスを使用したり、音声出力の技術を習得する必要があった。特に、デバイスを使用して点字や指文字などを出力した後に、意図する点字や指文字とは異なる場合には、それらの点字や指文字を一旦取り消して、正しい点字や指文字を再入力することは煩雑であった。 However, communication between visually impaired and able-bodied people mainly relies on Braille or voice output, and although technology that recognizes the shape and movements of hands and fingers is being researched, in order for everyone to use these communication tools effectively, it is necessary to use a dedicated Braille device or to learn voice output technology. In particular, if Braille or finger spelling is output using a device and the Braille or finger spelling differs from the intended Braille or finger spelling, it is cumbersome to cancel the Braille or finger spelling and re-input the correct Braille or finger spelling.
そこで、本発明の目的は、指を開く、曲げる、添える等の指や手の動作を通じてデバイスを利用することでそれらの動作を指文字に変換して、変換した指文字の決定または取り消しなどの付随的な操作も可能であり、さらにその変換結果をパソコンやスマートフォンなどの外部機器において指文字を介した音声による出力を可能にすることで視覚障がい者と健常者との間で円滑なコミュニケーションを図ることのできる手指動作認識デバイスおよびそのデバイスを用いた指文字出力方法を提供することとする。 The object of the present invention is to provide a finger movement recognition device and a finger alphabet output method using the device, which can convert finger and hand movements such as opening, bending, and placing fingers together into finger alphabets by using the device, and can also perform additional operations such as confirming or canceling the converted finger alphabet, and further enable the conversion result to be output as voice via finger alphabets on an external device such as a personal computer or smartphone, thereby facilitating smooth communication between visually impaired people and able-bodied people.
この目的を達成するために、本発明は予め定められた複数種類の人の動作をセンサーにより検知する動作検知部と、前記人の動作に対応する指文字を入力するための指文字情報を外部機器に出力する指文字情報出力部と、を有しており、前記動作検知部は、手の5本指に装着されて、前記5本指の動作を検知することで指文字として認識した上で該指文字の決定又は取り消しを行う手袋型デバイスを有し、前記動作検知部は、足に装着した加速度センサーを用いて予め定められた前記足の動作を検知することで前記指文字の決定又は取り消しを行う脚部取付型デバイスをさらに有しており、前記指文字情報出力部は、前記足の動作が検知されたときに前記指文字情報を外部機器に出力することを手指動作認識デバイス。 In order to achieve this object, the present invention provides a hand movement recognition device comprising a movement detection unit which detects a number of predetermined types of human movements using a sensor, and a finger alphabet information output unit which outputs finger alphabet information for inputting finger alphabets corresponding to the human movements to an external device , wherein the movement detection unit comprises a glove-type device which is worn on the five fingers of the hand and detects the movements of the five fingers to recognize them as finger alphabets and then confirms or cancels the finger alphabet, and the movement detection unit further comprises a leg-mounted device which detects the predetermined foot movements using an acceleration sensor and confirms or cancels the finger alphabet, and the finger alphabet information output unit outputs the finger alphabet information to an external device when the foot movement is detected .
また、手袋型デバイスのセンサーは、5本の各指の背側の関節位置に装着される第1ないし第5センサー群と、手の掌または手の甲のいずれかの位置に装着される第6センサーと、手首の位置に装着される第7センサーと、を有して、第1ないし第5センサー群は手指の曲げ伸ばしを感知する曲げセンサーであり、第6センサーは手の傾きを感知するセンサーであり、第7センサーは手の移動方向を感知するセンサーとすることもできる。 The glove-type device also has a first to fifth sensor group attached to the joint positions on the back of each of the five fingers, a sixth sensor attached to either the palm or the back of the hand, and a seventh sensor attached to the wrist, where the first to fifth sensor groups are bending sensors that detect bending and straightening of the fingers, the sixth sensor is a sensor that detects the inclination of the hand, and the seventh sensor is a sensor that detects the direction of movement of the hand.
本発明により、指や手の動作を検出して、それを指文字として認識した上で、それらの動作を指文字に変換して、変換した指文字の決定又は取り消しなどの付随的な操作も可能であり、さらに外部機器に接続することで指文字を介した音声による出力もできるので、視覚障がい者と別空間の人間との間でも円滑なコミュニケーションを図ることができるという効果を奏する。 The present invention detects finger and hand movements, recognizes them as finger alphabets, converts those movements into finger alphabets, and also enables additional operations such as confirming or canceling the converted finger alphabet. Furthermore, by connecting to an external device, it is possible to output audio via finger alphabets, which has the effect of enabling smooth communication between visually impaired people and people in different spaces.
以下に、本発明に係る実施の形態について添付図面を参照しながら詳細に説明する。以下では、全ての図面において同様の要素には同一の符号を付し、重複する説明を省略する。また、本文中の説明においては、必要に応じそれ以前に述べた符号を用いるものとする。 The following describes in detail an embodiment of the present invention with reference to the accompanying drawings. In the following, similar elements in all drawings are given the same reference numerals, and duplicate explanations will be omitted. In addition, in the explanations in the text, previously mentioned reference numerals will be used as necessary.
本発明の一実施形態である手指動作認識デバイス1の模式構成図を図1に示す。本発明に係る手指動作認識デバイス1は、図1に示す様に大きく分けて、人(操作者)の動作を検知するための動作検知部2および動作検知部2により検知された動作に対応する指文字としての情報を外部機器UTへ出力するための指文字情報出力部3から形成されており、配線H1を介して互いに接続されている。また、指文字情報出力部3は、配線H2,H3を介してスマートフォン,パソコン,タブレット端末などの外部機器UTと接続することで、指文字のデータを介して音声として出力することができる。さらに、指文字情報出力部3は、点字プリンタや点字ディスプレイなどの点字出力機器と接続することで指文字としての情報を点字として出力することもできる。以下、動作検知部2および指文字情報出力部3の詳細について説明する。 1 shows a schematic diagram of a finger action recognition device 1 according to an embodiment of the present invention. As shown in FIG. 1, the finger action recognition device 1 according to the present invention is broadly divided into a motion detection unit 2 for detecting the motion of a person (operator) and a finger character information output unit 3 for outputting information as finger characters corresponding to the motion detected by the motion detection unit 2 to an external device UT, and these are connected to each other via a wiring H1. In addition, the finger character information output unit 3 can output as voice via finger character data by connecting to an external device UT such as a smartphone, a personal computer, or a tablet terminal via wiring H2 and H3. Furthermore, the finger character information output unit 3 can output information as finger characters as braille by connecting to a braille output device such as a braille printer or a braille display. Details of the motion detection unit 2 and the finger character information output unit 3 will be described below.
<動作検知部2>
動作検知部2は、予め定められた複数種類の人の手や足などの動作をセンサーにより検知する、本発明の手指動作認識デバイスを構成する要素である。動作検知部2が、図1に示す様な手袋型デバイスの場合、人(操作者)の手の5本指の動きを検知して、当該手袋型デバイスに設けられた各種センサーから送られてくる電気信号をデータとして収集する。
<Motion detection unit 2>
The motion detection unit 2 is an element constituting the hand motion recognition device of the present invention, which detects multiple predetermined types of motions of a person's hands, feet, etc., using sensors. When the motion detection unit 2 is a glove-type device as shown in Fig. 1, it detects the motions of the five fingers of a person's (operator's) hand and collects electrical signals sent from various sensors provided in the glove-type device as data.
データとして収集された電気信号は、無線または有線の通信手段を介して後述の指文字情報出力部へ送信される。また、動作検知部2は前述の手袋型デバイスの他に、予め定められた足の動作を大腿部や足首部などに装着したセンサーを用いて検知する脚部取付型のデバイスを使用することもできる。動作検知部2の第1実施形態である手袋型デバイス20および第2実施形態である脚部取付型デバイス28,29の詳細について以下に説明する。 The electrical signals collected as data are transmitted to the finger alphabet information output unit described below via wireless or wired communication means. In addition to the glove-type device described above, the motion detection unit 2 can also use a leg-mounted device that detects predetermined foot movements using a sensor attached to the thigh or ankle. Details of the glove-type device 20, which is a first embodiment of the motion detection unit 2, and the leg-mounted devices 28 and 29, which are second embodiments, are described below.
(手袋型デバイス20)
動作検知部の第1実施形態である手袋型デバイス20の正面図を図2、同手袋型デバイス20の背面図を図3、同手袋型デバイス20の左側面図を図4にそれぞれ示す。動作検知部の第1実施形態である手袋型デバイス20は、繊維強化プラスチックやケブラー繊維など耐久性を備えた素材で作られた手袋本体に、各種センサーが装着されることで手の5本指の動作を高精度で検知する機能を備えたデバイスである。これらの手袋本体に装着された各種センサーの働きによって、例えば、曲げセンサーは指の曲がり具合を測定し、加速度センサーは手全体の動きを捉えることで、指の曲げ伸ばしや手首の動きなど微細な動作を電気信号の情報として正確に捉えることができる。ここで、曲げセンサーは例えば表面にひずみゲージなどの抵抗をそれぞれ形成した2枚の薄板状の弾性体を貼り合わせたものである。当該弾性体が曲がることで表面側と裏面側とに発生するひずみゲージの寸法変化を抵抗値として検出することにより弾性体の曲がりの程度を検出できる。また、加速度センサーは、例えば内部におもりとセンサー素子を備えて、おもりが動くとセンサー素子に圧縮力や伸張力が生じる。これらの圧縮力や伸張力による共振周波数の変化を所定の算出式を用いて、物体に生じる振動、傾き、直線運動として検出できる。
(Glove-Type Device 20)
FIG. 2 shows a front view of a glove-type device 20 as a first embodiment of the motion detection unit, FIG. 3 shows a rear view of the glove-type device 20, and FIG. 4 shows a left side view of the glove-type device 20. The glove-type device 20 as a first embodiment of the motion detection unit is a device equipped with a function of detecting the motion of five fingers of a hand with high accuracy by attaching various sensors to a glove body made of a durable material such as fiber-reinforced plastic or Kevlar fiber. By the action of the various sensors attached to the glove body, for example, the bending sensor measures the bending degree of the fingers, and the acceleration sensor captures the movement of the entire hand, so that minute movements such as bending and straightening of the fingers and the movement of the wrist can be accurately captured as information of an electrical signal. Here, the bending sensor is, for example, two thin plate-like elastic bodies each having a resistance such as a strain gauge formed on the surface. The degree of bending of the elastic body can be detected by detecting the dimensional change of the strain gauge generated on the front side and the back side as a resistance value when the elastic body is bent. In addition, an acceleration sensor has a weight and a sensor element inside, and when the weight moves, a compressive or tensile force is generated in the sensor element. The change in resonance frequency caused by this compressive or tensile force can be detected as vibration, inclination, or linear motion generated in an object using a predetermined calculation formula.
手袋型デバイス20は、図2ないし図4に示す様に複数のセンサーが分散して装着された手袋型のデバイスであり、内部に手を挿入することで使用することができる。手袋型デバイス20に装着されるセンサーは、図2ないし図4に示す様に、少なくとも、5本の各指(母指、示指、中指、環指および小指)の背側の関節位置に装着される第1ないし第5センサー群21~25,手の掌または手の甲の位置に装着される第6センサー26および手首の位置に装着される第7センサー27から形成されている。 The glove-type device 20 is a glove-type device with multiple sensors attached in a distributed manner as shown in Figures 2 to 4, and can be used by inserting a hand inside. As shown in Figures 2 to 4, the sensors attached to the glove-type device 20 are made up of at least first to fifth sensor groups 21 to 25 attached to the joint positions on the back of each of the five fingers (thumb, index finger, middle finger, ring finger, and little finger), a sixth sensor 26 attached to the palm or back of the hand, and a seventh sensor 27 attached to the wrist.
第1ないし第5センサー群については、図2に示す様に第1センサー群21が手の母指(いわゆる親指)、第2センサー群22が手の示指(いわゆる人差し指)、第3センサー群23が手の中指、第4センサー群24が手の環指(いわゆる薬指)、第5センサー群25が手の小指にそれぞれ装着されている。さらに、各指に装着される各センサー、各指の関節位置ごとに3種類のセンサーに分かれている。 As shown in FIG. 2, the first to fifth sensor groups are attached to the thumb (the thumb), the second sensor group 22 to the index finger (the index finger), the third sensor group 23 to the middle finger, the fourth sensor group 24 to the ring finger (the ring finger), and the fifth sensor group 25 to the little finger. Furthermore, the sensors attached to each finger are divided into three types according to the joint position of each finger.
例えば、母指に装着される第1センサー群21は、図2に示す様に母指の第1関節(最先端部の関節)の位置に装着される第1上端センサー21A、母指の第2関節の位置に装着される第1中央センサー21B、母指の第3関節の位置に装着される第1下端センサー21Cの計3種類のセンサーに分かれている。これら第1上端センサー21Aと第1中央センサー21Bと第1下端センサー21Cは、図2に示す様に互いが配線W21によって接続されており、配線W21は後述の指文字情報出力部3と接続している配線H1につながっている。 For example, the first sensor group 21 attached to the thumb is divided into three types of sensors: a first upper end sensor 21A attached to the first joint (the most distal joint) of the thumb, a first central sensor 21B attached to the second joint of the thumb, and a first lower end sensor 21C attached to the third joint of the thumb, as shown in Figure 2. These first upper end sensor 21A, first central sensor 21B, and first lower end sensor 21C are connected to each other by wiring W21 as shown in Figure 2, and wiring W21 is connected to wiring H1 that is connected to the finger character information output unit 3 described below.
そのため、母指の曲げ具合をセンサーごとに検知して、図2に示す配線H1を介して接続された後述の指文字情報出力部3へ電気信号として送信される。なお、その他の示指、中指、環指および小指の4本の指に装着されている第2ないし第5センサー群22~25ついても同様の構成であるので、詳細な説明は割愛する。 Therefore, the degree of bending of the thumb is detected by each sensor and transmitted as an electrical signal to the finger character information output unit 3, which is connected via the wiring H1 shown in FIG. 2 and will be described later. The second to fifth sensor groups 22 to 25 attached to the other four fingers, the index finger, middle finger, ring finger, and little finger, have the same configuration, so a detailed description will be omitted.
なお、第1ないし第5センサー群21~25に適用するセンサーは、各指の背側(爪側)関節部分に配置することで、指の曲げ具合(どの指がどの程度曲がっているか)を検知できる曲げセンサーとすることが好ましい。また、母指に装着される第1センサー群21は、図2に示す様に第1上端センサー21A、第1中央センサー21B、第1下端センサー21Cの計3種類すべてのセンサーを背側(爪側)に装着した場合を例示しているが、母指の側方や腹側(手の掌側)に装着することで、装着された曲げセンサー内のひずみゲージが変形することで抵抗値が変化して、母指の曲げの程度、すなわち母指を外側へ開く、示指に添えるなどの細やかな動きも検知することができる。さらに、指の関節位置に曲げセンサーを装着することで、例えば示指(人差し指)を90度に曲げた場合、特定の指文字を表すジェスチャーとして予め設定しておくことで、指の曲げ具合で特定の指文字に変換できる。 The sensors applied to the first to fifth sensor groups 21 to 25 are preferably bend sensors that can detect the degree of bending of the fingers (how much each finger is bent) by arranging them at the dorsal (nail side) joints of each finger. As shown in FIG. 2, the first sensor group 21 attached to the thumb is illustrated as having all three types of sensors, the first upper end sensor 21A, the first central sensor 21B, and the first lower end sensor 21C, attached to the dorsal (nail side). However, by attaching the sensors to the side or ventral side (palm side) of the thumb, the strain gauge in the attached bend sensor changes its resistance value as it deforms, and the degree of bending of the thumb, that is, the degree of fine movements such as opening the thumb outward or placing it on the index finger, can be detected. Furthermore, by attaching a bend sensor to the joint position of the finger, for example, when the index finger (index finger) is bent 90 degrees, it can be converted into a specific finger alphabet by setting it in advance as a gesture that represents a specific finger alphabet.
第6センサー26は、図3および図4に示す様に手の掌(手のひら)の位置に装着することで手(手首から先の部分)の傾きや捻りなどの状態を検知するためのセンサーである。第6センサー26は、後述の第7センサー27と配線W26を介して接続されている。 The sixth sensor 26 is a sensor that is attached to the palm of the hand as shown in Figures 3 and 4 to detect the state of the hand (part from the wrist down), such as tilt or twist. The sixth sensor 26 is connected to the seventh sensor 27 (described below) via wiring W26.
また、第6センサー26は、例えば、指を曲げないで手だけを動かした状態を特定の入力内容に対する決定や取り消しなどを表すジェスチャーとして事前に設定することで、手首から先の部分を前に倒したり、後ろへ反らしたりする手の傾きや手首から先の部分を左右方向に回転させたりする捻りなどの動作を指文字の入力や出力などの一機能として担わせることができる。 In addition, the sixth sensor 26 can, for example, pre-set a state in which only the hand is moved without bending the fingers as a gesture that indicates confirmation or cancellation of a specific input content, and can use movements such as tilting the hand by tilting the wrist forward or backward, or twisting the wrist left or right as a function for inputting or outputting finger alphabets.
そのため、センサーの種類は曲げセンサーや加速度センサーとすることが好ましい。なお、図3および図4に示す第6センサーは手の掌の位置に装着している場合を示しているが、手の甲の位置に装着しても構わない。 For this reason, it is preferable that the type of sensor be a bending sensor or an acceleration sensor. Note that although the sixth sensor shown in Figures 3 and 4 is attached to the palm of the hand, it may also be attached to the back of the hand.
第7センサー27は、図3および図4に示す様に手首部分に装着することで手(または前腕部)を手前側(操作側)もしくは奥側(相手側)に倒す動作や手(または前腕部)を左側や右側へ曲げる動作を検知するセンサーである。第7センサー27は、前述の第6センサー26と配線W26を介して接続されており、同時に別個の配線W27を介して指文字情報出力部に接続している配線H1とつながっている。なお、第7センサーの種類は加速度センサーや振動センサーとすることが好ましい。ここで、振動センサーとは、例えば内部に2つの重りに挟まれた圧電素子を備えたセンサーである。物体が振動することで2つの重りの動きに応じて変形した圧電素子が電気信号を出力して、計測された電圧から物体の振動を検知できるセンサーである。 The seventh sensor 27 is a sensor that is attached to the wrist as shown in Figs. 3 and 4 and detects the action of tilting the hand (or forearm) forward (operating side) or backward (opponent side) or bending the hand (or forearm) to the left or right. The seventh sensor 27 is connected to the sixth sensor 26 described above via a wire W26, and is also connected to a wire H1 that is connected to the finger alphabet information output unit via a separate wire W27. The seventh sensor is preferably an acceleration sensor or a vibration sensor. Here, the vibration sensor is, for example, a sensor that has a piezoelectric element sandwiched between two weights inside. When an object vibrates, the piezoelectric element deforms in response to the movement of the two weights and outputs an electrical signal, and the sensor can detect the vibration of the object from the measured voltage.
以上より、手袋型デバイスには前述した各種センサーが装着されており、5本の各指の曲げ伸ばしや手首の上下左右方向の動作を電気信号の情報として捉えることができる。そのため、例えば、前述したように親指(母指)を開く、添える、曲げるなどの細かな操作に基づいて、指文字の50音に対応する文字,数字,句読点などの表示に加えて、文字の決定又は取り消しなどの一連のステップを単体の手袋型デバイスのみで対応することができる。 As described above, the glove-type device is equipped with the various sensors described above, and can capture the bending and straightening of each of the five fingers and the up, down, left and right movements of the wrist as electrical signal information. Therefore, for example, based on small operations such as opening, placing and bending the thumb (upper finger) as described above, it is possible for a single glove-type device to handle a series of steps such as confirming or canceling characters in addition to displaying letters, numbers, punctuation marks and the like corresponding to the 50 Japanese syllabary.
(脚部取付型デバイス28,29)
動作検知部の第2実施形態の脚部取付型デバイス28を大腿部に巻き付けて固定した状態の斜視図を図5、同脚部取付型デバイス29を足首部に固定した状態の斜視図を図6にそれぞれ示す。動作検知部の第2実施形態である脚部取付型デバイスは、加速度センサーなど各種センサーを備えており、人の脚部に固定して使用するデバイスである。例えば、図5に示す様にベルト式部品を大腿部に巻き付けて固定するタイプ(脚部取付型デバイス28)や図6に示す様にリング状部品を足首部に取り付けるタイプ(脚部取付型デバイス29)がある。
(Leg-mounted devices 28, 29)
A perspective view of a leg-mounted device 28 of a second embodiment of the motion detection unit wrapped around the thigh and fixed thereto is shown in Fig. 5, and a perspective view of a leg-mounted device 29 of the second embodiment of the motion detection unit wrapped around the ankle is shown in Fig. 6. The leg-mounted device of the second embodiment of the motion detection unit is equipped with various sensors such as an acceleration sensor, and is a device that is fixed to a person's leg when used. For example, there is a type (leg-mounted device 28) in which a belt-type part is wrapped around the thigh and fixed thereto as shown in Fig. 5, and a type (leg-mounted device 29) in which a ring-shaped part is attached to the ankle as shown in Fig. 6.
また、脚部取付型デバイス28は図5に示す様に配線W28を備えており、指文字情報出力部3に接続している配線H1とつながっている。脚部取付型デバイス29も同様に図6に示す様に配線W29を備えており、指文字情報出力部に接続している配線H1とつながっている。さらに、脚部取付型デバイス28,29は、図5および図6に示すように大腿部や足首部に取り付けることで、足の振り上げ(または振り下ろし)や蹴り上げなどの動作を正確に検知する機能を有したデバイスである。これらデバイスに装着された各種センサーの働きによって、例えば加速度センサーは大腿部の上下方向の瞬間的な動作を把握することで、そのような動作を電気信号の情報として正確に捉えることができる。 The leg-mounted device 28 also has a wiring W28 as shown in FIG. 5, which is connected to the wiring H1 connected to the finger alphabet information output unit 3. Similarly, the leg-mounted device 29 also has a wiring W29 as shown in FIG. 6, which is connected to the wiring H1 connected to the finger alphabet information output unit. Furthermore, the leg-mounted devices 28, 29 are devices that have the function of accurately detecting movements such as swinging up (or down) the leg or kicking up when attached to the thigh or ankle as shown in FIG. 5 and FIG. 6. The various sensors attached to these devices, for example an acceleration sensor, can grasp the instantaneous movement of the thigh in the up and down direction, and accurately capture such movements as electrical signal information.
以上より、前述の手袋型デバイス20に加えて、脚部取付型デバイスを併用することにより、例えば、手袋型デバイスを用いて表示した指文字に対して、脚部取付型デバイスを装着した足の振り上げなどの動作によって、文字の決定又は取り消しなどのステップを個別に対応できる。そのため、片方の手足(例えば、右手と右足)で指文字の表示から確定までの一連のステップを行いながら、もう片方の手(例えば、左手)を利用して、スマートフォン,パソコン,タブレット端末などの外部機器を利用したメール送信などの機器操作を行うこともできる。 As described above, by using a leg-mounted device in addition to the glove-type device 20 described above, for example, steps such as confirming or canceling the finger alphabet displayed using the glove-type device can be performed individually by swinging up the foot wearing the leg-mounted device. Therefore, while performing a series of steps from displaying the finger alphabet to confirming it with one hand and foot (e.g., the right hand and right foot), the other hand (e.g., the left hand) can be used to operate devices such as sending emails using external devices such as smartphones, personal computers, and tablet terminals.
<指文字情報出力部3>
指文字情報出力部3は、前述の動作検知部で検知された人の動作に対応する指文字の情報を生成し、外部機器に出力する装置である。動作検知部から送られてきたデータを解析し、事前に定められた動作と指文字の対応関係に基づいて指文字の情報を生成し、それを外部機器に送信する。
<Finger alphabet information output unit 3>
The finger alphabet information output unit 3 is a device that generates finger alphabet information corresponding to the human motion detected by the motion detection unit and outputs it to an external device. It analyzes the data sent from the motion detection unit, generates finger alphabet information based on a correspondence between the motion and the finger alphabet determined in advance, and transmits it to the external device.
指文字情報出力部3は、動作データの解析、動作と指文字のマッピング、指文字情報の生成を行い、有線または無線の手段を通じて指文字データとして外部機器に送信する。なお、指文字情報出力部3は、図1に示す様に動作検知部2と別個独立した装置として図示されているが、動作検知部2の前述の手袋型デバイスや脚部取付型デバイスなどのデバイス中に埋め込むことで一体化することもできる。 The finger alphabet information output unit 3 analyzes the motion data, maps the motions and finger alphabets, generates finger alphabet information, and transmits it to an external device as finger alphabet data via wired or wireless means. Note that, as shown in FIG. 1, the finger alphabet information output unit 3 is illustrated as a device separate and independent from the motion detection unit 2, but it can also be integrated by being embedded in a device such as the glove-type device or leg-mounted device of the motion detection unit 2.
次に、手指動作認識デバイスを用いた指文字出力方法の一実施形態について説明する。本発明の手指動作認識デバイスを用いた指文字出力方法は、主に以下の第1ないし第9ステップから形成されている。
・第1ステップ:手指の動作に基づいたセンサーの動作検知
・第2ステップ:動作検知された電気信号の送信
・第3ステップ:電気信号の受信有無の確認
・第4ステップ:電気信号の解析に基づく対応する指文字の選定
・第5ステップ:電気信号の解析による指文字選定の確認
・第6ステップ:外部機器における選定された指文字の音声出力
・第7ステップ:選定された指文字の確認
・第8ステップ:選定された指文字の確定
・第9ステップ:外部機器への指文字データの音声,文字,点字による出力
以下、動作検知部として図2ないし図4に示す手袋型デバイスや図5や図6に示す脚部取付型デバイスを使用した場合の第1ないし第9ステップの詳細内容について図面を用いて説明する。本発明の一実施形態である手指動作認識デバイスを用いた指文字出力方法のフローチャートを図7に示す。
Next, an embodiment of a method for outputting finger characters using a hand gesture recognition device will be described. The method for outputting finger characters using a hand gesture recognition device of the present invention is mainly composed of the following first to ninth steps.
Step 1: Detecting the movement of the sensor based on the movement of the fingers; Step 2: Transmitting an electrical signal representing the detected movement; Step 3: Checking whether the electrical signal has been received; Step 4: Selecting the corresponding alphabet based on the analysis of the electrical signal; Step 5: Checking the selection of the alphabet by analyzing the electrical signal; Step 6: Audio output of the selected alphabet in the external device; Step 7: Checking the selected alphabet; Step 8: Finalizing the selected alphabet; Step 9: Outputting the alphabet data to the external device by audio, characters, or Braille. Below, the details of steps 1 to 9 will be described with reference to the drawings when the glove-type device shown in Figures 2 to 4 or the leg-mounted device shown in Figures 5 and 6 is used as the movement detection unit. A flowchart of a method for outputting alphabets using a hand movement recognition device according to one embodiment of the present invention is shown in Figure 7.
(第1ステップ:手指の動作に基づいたセンサーの動作検知)
まず、人(操作者)が手袋型デバイスを片方の手に装着する。この手袋型デバイスには、曲げセンサーや加速度センサーなど複数の種類のセンサーが装着されており、手や5本指の動作を検知する(図7に示す第1ステップS001)。
(First step: Sensor motion detection based on finger motion)
First, a person (operator) wears a glove-type device on one hand. This glove-type device is equipped with multiple types of sensors, such as a bending sensor and an acceleration sensor, and detects the movements of the hand and five fingers (first step S001 shown in FIG. 7).
曲げセンサーは、各指の関節の曲げ方向や曲げ角度を正確に検知して、指の動きに応じたセンサー内のひずみゲージの抵抗値の変化を捉えることで指の屈曲具合を測定する。また、加速度センサーは手の移動方向や移動速度を検知して、手の動きに伴う加速度を計測することで動作の速さや方向を判別する。 The bending sensor accurately detects the bending direction and bending angle of each finger joint, and measures the degree of bending of the fingers by capturing changes in the resistance value of the strain gauge inside the sensor according to the finger movement. The acceleration sensor also detects the direction and speed of hand movement, and determines the speed and direction of movement by measuring the acceleration associated with the hand movement.
なお、これらのセンサーの出力は連続的に監視することで必要に応じてキャリブレーションを行って、測定精度の維持を図ることができる。例えば、初期使用時や一定時間ごとの再キャリブレーションにより、センサーのずれや誤差を修正し、常に正確なデータが得られるようにする。 The output of these sensors can be continuously monitored and calibrated as necessary to maintain measurement accuracy. For example, recalibration during initial use or at regular intervals can be performed to correct any misalignment or errors in the sensors, ensuring that accurate data is always obtained.
(第2ステップ:動作検知された電気信号の送信)
第2ステップでは、前述の第1ステップで検知された電気信号が手袋型デバイス20から指文字情報出力部3へ送信される(図7に示す第2ステップS002)。手袋型デバイス20は、有線または無線の通信手段を介して、電気信号を迅速かつ確実に指文字情報出力部へ送信できる。
(Second step: transmitting an electrical signal indicating that motion has been detected)
In a second step, the electric signal detected in the above-mentioned first step is transmitted from the glove type device 20 to the finger character information output unit 3 (second step S002 shown in FIG. 7). The glove type device 20 can transmit the electric signal to the finger character information output unit quickly and reliably via a wired or wireless communication means.
具体的には、無線通信としてBluetooth(登録商標)やWi-Fi(登録商標)を利用することで、ケーブルなどの有線通信による物理的な制約を受けることなく迅速な情報送信が可能となる。また、有線通信としてUSBなどの記録媒体を利用することで、高速かつ安定した通信が可能となる。 Specifically, by using Bluetooth (registered trademark) or Wi-Fi (registered trademark) for wireless communication, it is possible to transmit information quickly without being subject to the physical constraints of wired communication such as cables. In addition, by using a recording medium such as a USB for wired communication, high-speed and stable communication is possible.
(第3ステップ:電気信号の受信有無の確認)
指文字情報出力部3は、手袋型デバイス20からの電気信号の受信の有無を確認する。もし、指文字情報出力部3が電気信号を受信できていない場合には、手袋型デバイス20に対して、電気信号を再送信するための指令を送る(再送信指令:第3ステップS003)。
(Third step: Check whether electrical signal is received or not)
The finger character information output unit 3 checks whether an electrical signal has been received from the glove type device 20. If the finger character information output unit 3 has not received an electrical signal, it sends a command to the glove type device 20 to retransmit the electrical signal (retransmission command: third step S003).
この際、受信信号のタイムスタンプやセンサーの識別情報も一緒に送信されることで、信号の発生時刻や発信元を特定することが可能となる。このようにして、手袋型デバイス20から送信された信号が指文字情報出力部3にて適切に管理・処理され、次のステップにスムーズに移行できるようにする。 At this time, the timestamp of the received signal and the sensor identification information are also transmitted, making it possible to identify the time of signal generation and its source. In this way, the signal transmitted from the glove-type device 20 is appropriately managed and processed by the finger character information output unit 3, enabling a smooth transition to the next step.
なお、通信の信頼性を高めるために、手袋型デバイス20と指文字情報出力部3間の通信には暗号化技術のようなセキュリティプロトコルを導入することもできる。これにより、第三者による電気信号の傍受や改ざんを防止して、機密性の高い通信が保証される。このようにして、第2ステップでは手袋型デバイスから指文字情報出力部3へ電気信号が送信され、その信号が正確かつ安全に受信されることが確保される。 Note that in order to increase the reliability of communication, a security protocol such as encryption technology can be introduced into the communication between the glove-type device 20 and the finger character information output unit 3. This prevents a third party from intercepting or tampering with the electrical signal, ensuring highly confidential communication. In this way, in the second step, an electrical signal is transmitted from the glove-type device to the finger character information output unit 3, and it is ensured that the signal is received accurately and safely.
(第4ステップ:電気信号の解析に基づく対応する指文字の選定)
(第5ステップ:電気信号の解析による指文字選定の確認)
第4および第5ステップでは、前述の第2ステップで受信した電気信号を指文字情報出力部3にて解析する(図7に示す第4ステップS004)ことで、その電気信号に対応した指文字を選定する(図7に示す第5ステップS005)。指文字情報出力部3は、受信した電気信号を解析するための複数のプロセスを含む。この解析プロセスは、信号前処理プロセス、特徴抽出プロセス、および指文字対応プロセスから構成される。
(Fourth step: Selection of corresponding finger spelling based on analysis of electrical signals)
(Fifth step: Confirmation of finger alphabet selection by analyzing electrical signals)
In the fourth and fifth steps, the finger alphabet information output unit 3 analyzes the electrical signal received in the second step (fourth step S004 in FIG. 7) to select a finger alphabet corresponding to the electrical signal (fifth step S005 in FIG. 7). The finger alphabet information output unit 3 includes a plurality of processes for analyzing the received electrical signal. This analysis process is composed of a signal pre-processing process, a feature extraction process, and a finger alphabet correspondence process.
まず、信号前処理プロセスは、受信した電気信号に対してノイズ除去や正規化が行われる。ノイズ除去は、外部環境やデバイス自体のノイズを除去するためにフィルタリング技術が使用される。例えば、ローパスフィルタなどを適用することで、電気信号の高周波成分や低周波成分を除去して、電気信号の品質を向上させる。正規化は、センサーから得られる電気信号の範囲やスケールを統一するために行われ、解析の精度を高めるために重要な処理である。 First, the signal pre-processing process involves noise removal and normalization of the received electrical signal. For noise removal, filtering techniques are used to remove noise from the external environment or the device itself. For example, applying a low-pass filter can remove high-frequency and low-frequency components from the electrical signal, improving the quality of the electrical signal. Normalization is performed to unify the range and scale of the electrical signal obtained from the sensor, and is an important process for improving the accuracy of analysis.
次に、特徴抽出プロセスにおいて、前処理された電気信号から重要な特徴が抽出される。特徴抽出には、各指の屈曲角度、手の動きの速度や方向、指先にかかる圧力などが含まれる。これらの特徴は、機械学習アルゴリズムや既存の指文字認識技術を使用して解析される。例えば、ニューラルネットワークなどのアルゴリズムを用いて、抽出された特徴から対応する指文字を高精度に識別することができる。なお、図7に示す第4ステップS004にて解析した結果、第5ステップS005にて対応する指文字が選定できなかった場合には、指文字情報出力部3に対して電気信号を再解析するための指令を送る(再解析指令)。 Next, in the feature extraction process, important features are extracted from the preprocessed electrical signal. Feature extraction includes the bending angle of each finger, the speed and direction of hand movement, and the pressure on the fingertips. These features are analyzed using machine learning algorithms and existing finger alphabet recognition technology. For example, using an algorithm such as a neural network, it is possible to identify the corresponding finger alphabet from the extracted features with high accuracy. Note that if the analysis in the fourth step S004 shown in FIG. 7 shows that the corresponding finger alphabet cannot be selected in the fifth step S005, a command to reanalyze the electrical signal is sent to the finger alphabet information output unit 3 (reanalysis command).
(第6ステップ:外部機器における選定された指文字の音声出力)
最後に、指文字対応プロセスにおいて、抽出された特徴を基に事前にトレーニングされたモデルを使用して対応する指文字を選定する。このモデルは、特定の各指の屈曲パターンや手の動きが特定の指文字(指文字)に対応する事前のトレーニングがなされている。
(Sixth step: Voice output of selected finger alphabet on external device)
Finally, in the finger alphabet matching process, the extracted features are used to select the corresponding finger alphabet using a pre-trained model, which is pre-trained to match each specific finger flexion pattern or hand movement to a specific finger alphabet (digital alphabet).
例えば、機械学習技術を利用して多量のデータを基に精度の高いモデルが構築される。これにより、操作者の手や指の動作に対応する指文字を迅速かつ正確に選定することができる。その後、選定された指文字は指文字情報出力部と有線または無線の通信手段を介して接続しているパソコンやスマートフォンなどの外部機器のスクリーン上に表示されると同時に、外部機器の読み上げ機能を備えたアプリケーション(アプリ)およびスピーカーを利用して音声としても出力される(図7に示す第6ステップS006)。 For example, a highly accurate model is constructed based on a large amount of data using machine learning technology. This allows the finger alphabet to be quickly and accurately selected to correspond to the operator's hand and finger movements. The selected finger alphabet is then displayed on the screen of an external device such as a personal computer or smartphone connected to the finger alphabet information output unit via a wired or wireless communication means, and is simultaneously output as audio using an application (app) with a reading function and a speaker of the external device (sixth step S006 shown in FIG. 7).
(第7ステップ:選定された指文字の確認)
第7ステップでは、第5ステップで選定された指文字を最終的に決定するために、操作者が確認動作を行う(図7に示す第7ステップS007)。具体的には、第5ステップで選定された指文字を指文字情報出力部3に接続している外部機器に表示すると同時に、外部機器の読み上げ機能を備えたアプリケーション(アプリ)およびスピーカーを利用して音声としても出力される。その音声出力された指文字が操作者の意図する指文字と合致すれば、操作者は手や指を用いた特定の動作を行うことで確定される。この確認動作は、例えば、手を前方へ倒す動作,手(腕)を上げる動作,手(腕)を体の外側へ移動する動作など予め定められた動作パターンによって、選定された指文字を決定する判断を下すことができる。
(Seventh step: Confirmation of selected finger spelling)
In the seventh step, the operator performs a confirmation action to finally determine the finger alphabet selected in the fifth step (seventh step S007 shown in FIG. 7). Specifically, the finger alphabet selected in the fifth step is displayed on an external device connected to the finger alphabet information output unit 3, and is simultaneously output as voice using an application (app) with a reading function of the external device and a speaker. If the voice output finger alphabet matches the finger alphabet intended by the operator, the operator confirms it by performing a specific action using the hand or finger. This confirmation action can be determined to determine the selected finger alphabet by a predetermined action pattern, such as a movement of tilting the hand forward, a movement of raising the hand (arm), or a movement of moving the hand (arm) outside the body.
もし、選定された指文字が操作者の意図する指文字とは異なる場合には、その指文字を取り消すための動作も行うことができる(図7に示す第7ステップS007)。例えば、動作検知部として手袋型デバイス20を使用する場合には、手を手前側に反らせる動作,手(腕)を下げる動作,手(腕)を体の内側へ移動する動作など特定の動作をすることで、選定された指文字を取り消すための電気信号を送信することができる。 If the selected finger alphabet is different from the finger alphabet intended by the operator, an action can be taken to cancel the finger alphabet (seventh step S007 shown in FIG. 7). For example, when the glove-type device 20 is used as the motion detection unit, an electrical signal can be sent to cancel the selected finger alphabet by performing a specific motion, such as bending the hand towards the operator, lowering the hand (arm), or moving the hand (arm) inward toward the body.
また、動作検知部2として脚部取付型デバイスを使用する場合には、大腿部を振り上げる動作や(ボールなどを)蹴り上げる動作を行うことで、選定された指文字を取り消すための電気信号を送信することもできる。これにより、誤った指文字が決定されることを防ぎ、再度の正確な指文字の入力が可能となる。再度の指文字入力を行った後、その再入力した指文字を外部機器のスクリーン上に再表示すると同時に音声として出力するように指令を送る(再表示指令)。 In addition, when a leg-mounted device is used as the motion detection unit 2, an electrical signal can be sent to cancel the selected finger alphabet by performing a thigh-raising motion or a kicking motion (for example, of a ball). This prevents an incorrect finger alphabet from being determined, and enables the finger alphabet to be input again accurately. After re-inputting the finger alphabet, a command is sent to re-display the re-inputted finger alphabet on the screen of an external device and simultaneously output it as audio (re-display command).
(第8ステップ:選定された指文字の確定)
操作者が確認動作を行うと、手袋型デバイスはその動作に対応する電気信号を再度指文字情報出力部に送信する(図7に示す第8ステップS008)。この電気信号は、先に選定された指文字を最終的に確定するためのものであり、確認動作が適切に行われたことを示す。この際、確認動作が正しく検知されるよう、手袋型デバイスは高い感度で動作を検知し、誤認識を防止するためのフィルタリング処理が施される。
(Eighth step: Confirmation of selected finger alphabet)
When the operator performs a confirmation action, the glove type device transmits an electric signal corresponding to the action again to the finger alphabet information output unit (eighth step S008 shown in FIG. 7). This electric signal is for finalizing the previously selected finger alphabet, and indicates that the confirmation action has been performed properly. At this time, in order to correctly detect the confirmation action, the glove type device detects the action with high sensitivity, and a filtering process is performed to prevent erroneous recognition.
確認動作が正しく行われることにより、選定された指文字が最終的に確定されると、その指文字は次の第5ステップにて外部機器へ出力されるための準備をする。このように、第4ステップでは、選定された指文字が確認動作を通じて最終的に決定されるプロセスが詳細に管理されている。 When the confirmation operation is performed correctly and the selected finger alphabet is finally confirmed, the finger alphabet is prepared to be output to an external device in the next step, the fifth step. In this way, in the fourth step, the process by which the selected finger alphabet is finally determined through the confirmation operation is managed in detail.
(第9ステップ:外部機器への指文字データの音声,文字,点字による音声出力)
第9ステップでは、第8ステップで最終確定された指文字データが指文字情報出力部から外部機器へ文字として表示されると同時に音声,文字,点字などいずれかの手段としても出力される(図7に示す第9ステップS009)。この出力ステップは、指文字情報出力部と外部機器の間で有線または無線の通信手段を介して行われる。外部機器としては、コンピュータ、スマートフォン、タブレット、さらには各種のインターネット接続デバイスなど、多種多様なデバイスが含まれる。
(9th step: outputting finger alphabet data to an external device using voice, characters, and Braille)
In the ninth step, the finger character data finally determined in the eighth step is displayed as characters from the finger character information output unit to the external device, and is also output as any of voice, characters, braille, etc. (ninth step S009 shown in FIG. 7). This output step is performed via a wired or wireless communication means between the finger character information output unit and the external device. The external device includes a wide variety of devices such as a computer, a smartphone, a tablet, and further various Internet-connected devices.
無線通信手段としては、Bluetooth(登録商標)やWi-Fi(登録商標)が一般的に使用される。Bluetooth(登録商標)は、低消費電力で短距離のデータ送信に適しており、ペアリングされたデバイス間で安定した通信を提供する。一方、Wi-Fiは広範囲で高速なデータ転送を可能にし、家庭内ネットワークや公衆無線LANを利用してインターネットを介した通信も可能とする。有線通信手段としては、USBやシリアルケーブルが使用され、高速かつ安定したデータ転送が実現される。 Bluetooth (registered trademark) and Wi-Fi (registered trademark) are commonly used as wireless communication methods. Bluetooth (registered trademark) is suitable for short-distance data transmission with low power consumption, and provides stable communication between paired devices. On the other hand, Wi-Fi enables high-speed data transfer over a wide area, and also enables communication via the Internet using a home network or public wireless LAN. USB and serial cables are used as wired communication methods, and provide high-speed and stable data transfer.
指文字データの送信には、送信データの信頼性と整合性を確保するためのエラーチェック機能や暗号化技術が適用される。例えば、送信データにチェックサムを付加することで、受信側でデータの誤りを検出し、必要に応じて再送要求を行うことができる。また、暗号化技術を利用することで送信データの機密性と通信の安全性が確保できる。 When sending finger alphabet data, error checking functions and encryption technology are applied to ensure the reliability and integrity of the transmitted data. For example, by adding a checksum to the transmitted data, the receiving side can detect data errors and request a resend if necessary. In addition, the confidentiality of the transmitted data and the security of communications can be ensured by using encryption technology.
送信された指文字データは、外部機器上の各種アプリケーションやソフトウェアで利用される。例えば、テキストエディタ、メッセージングアプリケーション、電子メールクライアントなどで、リアルタイムに指文字入力として使用できる。また、これにより異なる使用者間で迅速かつ効率的な情報交換も可能となり、手指動作を通じた直感的な指文字入力インターフェースが実現される。 The transmitted finger alphabet data can be used by various applications and software on the external device. For example, it can be used as finger alphabet input in real time in text editors, messaging applications, email clients, etc. This also enables quick and efficient information exchange between different users, and provides an intuitive finger alphabet input interface through hand movements.
さらに、指文字データの送信プロセスは、使用者のニーズに応じてカスタマイズ可能である。特定のアプリケーションに対して直接入力を行うモードや、クラウドサービスにデータを送信して遠隔地のデバイスと同期するモードなど、多様な利用シナリオに対応することができる。 Furthermore, the process of sending finger alphabet data can be customized according to the user's needs. It can accommodate a variety of usage scenarios, such as a mode in which data is entered directly into a specific application, or a mode in which data is sent to a cloud service and synchronized with remote devices.
このように、最終の第9ステップでは、第8ステップで最終確定された指文字データが、無線または有線の通信手段を介して外部機器に送信され、各種アプリケーションやソフトウェアで利用されるプロセスが詳細に管理される。 Thus, in the final ninth step, the finger alphabet data finalized in the eighth step is transmitted to an external device via wireless or wired communication means, and the processes used by various applications and software are managed in detail.
以上の手指動作認識デバイスを用いることで、あらゆる指文字を表現し、さらに、当該デバイスを用いた指文字出力方法により、指や手の動作を当該デバイスが正確に検出して、それを指文字として認識した上で、それらの動作を指文字に変換して、変換した指文字の決定又は確定などの付随的な操作も可能であり、外部機器に接続することで指文字データを介して音声として出力することができる。そのため、視覚障がい者と別空間の人間の間でもコミュニケーションを円滑に図ることができる。 By using the above-mentioned hand gesture recognition device, any kind of finger alphabet can be expressed, and furthermore, by using the finger alphabet output method using the device, the device can accurately detect the movements of the fingers and hands, recognize them as finger alphabets, convert these movements into finger alphabets, and perform additional operations such as deciding or confirming the converted finger alphabet. By connecting to an external device, it is possible to output the finger alphabet data as voice. This allows smooth communication between visually impaired people and people in different spaces.
1 手指動作認識デバイス
2 動作検知部
3 指文字情報出力部
20 手袋型デバイス
21~25 第1~第5センサー群
21A~21Ⅽ 第1(上端,中央,下端)センサー群
22A~22Ⅽ 第2(上端,中央,下端)センサー群
23A~23Ⅽ 第3(上端,中央,下端)センサー群
24A~24Ⅽ 第4(上端,中央,下端)センサー群
25A~25Ⅽ 第5(上端,中央,下端)センサー群
26 第6センサー
27 第7センサー
28,29 脚部取付型デバイス
H1~H3 配線
S001~S009 第1~第9ステップ
UT 外部機器
W21~W29 配線
1 Finger motion recognition device 2 Motion detection unit 3 Finger character information output unit 20 Glove type device 21-25 First to fifth sensor groups 21A-21Ⅽ First (top, center, bottom) sensor group 22A-22Ⅽ Second (top, center, bottom) sensor group 23A-23Ⅽ Third (top, center, bottom) sensor group 24A-24Ⅽ Fourth (top, center, bottom) sensor group 25A-25Ⅽ Fifth (top, center, bottom) sensor group 26 Sixth sensor 27 Seventh sensor 28, 29 Leg-mounted device H1-H3 Wiring S001-S009 First to ninth steps UT External device W21-W29 Wiring
Claims (2)
前記人の動作に対応する指文字を入力するための指文字情報を外部機器に出力する指文字情報出力部と、
を有しており、
前記動作検知部は、手の5本指に装着されて、前記5本指の動作を検知することで指文字として認識した上で該指文字の決定又は取り消しを行う手袋型デバイスを有し、
前記動作検知部は、足に装着した加速度センサーを用いて予め定められた前記足の動作を検知することで前記指文字の決定又は取り消しを行う脚部取付型デバイスをさらに有しており、前記指文字情報出力部は、前記足の動作が検知されたときに前記指文字情報を外部機器に出力することを特徴とする手指動作認識デバイス。 a motion detection unit that detects a plurality of predetermined types of human motions using a sensor;
a finger alphabet information output unit that outputs finger alphabet information for inputting a finger alphabet corresponding to the human motion to an external device;
It has
the motion detection unit has a glove-type device that is worn on five fingers of a hand and detects motions of the five fingers to recognize the finger alphabet and then confirms or cancels the finger alphabet,
The finger movement recognition device is characterized in that the movement detection unit further has a leg-mounted device that determines or cancels the finger alphabet by detecting a predetermined foot movement using an acceleration sensor attached to the foot, and the finger alphabet information output unit outputs the finger alphabet information to an external device when the foot movement is detected .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024164900A JP7662246B1 (en) | 2024-09-24 | 2024-09-24 | Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024164900A JP7662246B1 (en) | 2024-09-24 | 2024-09-24 | Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7662246B1 true JP7662246B1 (en) | 2025-04-15 |
Family
ID=95373604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024164900A Active JP7662246B1 (en) | 2024-09-24 | 2024-09-24 | Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7662246B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04222014A (en) * | 1990-12-25 | 1992-08-12 | Nippon Telegr & Teleph Corp <Ntt> | Automatic finger talking translating device using neural network and its translating method |
JPH06337627A (en) * | 1993-05-27 | 1994-12-06 | Hitachi Ltd | Sign language interpreter |
US20100063794A1 (en) * | 2003-08-28 | 2010-03-11 | Hernandez-Rebollar Jose L | Method and apparatus for translating hand gestures |
KR20120129534A (en) * | 2011-05-20 | 2012-11-28 | 인하대학교 산학협력단 | apparatus and method for input system of finger keyboard |
JP2015088161A (en) * | 2013-09-26 | 2015-05-07 | 富士通株式会社 | Gesture input device, gesture input method, and gesture input program |
JP2020013599A (en) * | 2014-12-08 | 2020-01-23 | セス,ロヒット | Wearable wireless HMI device |
-
2024
- 2024-09-24 JP JP2024164900A patent/JP7662246B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04222014A (en) * | 1990-12-25 | 1992-08-12 | Nippon Telegr & Teleph Corp <Ntt> | Automatic finger talking translating device using neural network and its translating method |
JPH06337627A (en) * | 1993-05-27 | 1994-12-06 | Hitachi Ltd | Sign language interpreter |
US20100063794A1 (en) * | 2003-08-28 | 2010-03-11 | Hernandez-Rebollar Jose L | Method and apparatus for translating hand gestures |
KR20120129534A (en) * | 2011-05-20 | 2012-11-28 | 인하대학교 산학협력단 | apparatus and method for input system of finger keyboard |
JP2015088161A (en) * | 2013-09-26 | 2015-05-07 | 富士通株式会社 | Gesture input device, gesture input method, and gesture input program |
JP2020013599A (en) * | 2014-12-08 | 2020-01-23 | セス,ロヒット | Wearable wireless HMI device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112996430B (en) | Camera-guided interpretation of neuromuscular signals | |
US9990040B2 (en) | Haptic CAPTCHA | |
KR102141288B1 (en) | Supporting method and system for home fitness | |
CN107589782B (en) | Method and apparatus for a gesture control interface of a wearable device | |
CN114610146A (en) | Wearable device and method for providing feedback for wearable device | |
KR20020072367A (en) | Information input system using bio feedback and method thereof | |
US20210278898A1 (en) | Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions | |
WO2004114107A1 (en) | Human-assistive wearable audio-visual inter-communication apparatus. | |
US12340027B2 (en) | Gesture and voice controlled interface device | |
US20230142242A1 (en) | Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds | |
Fujiwara et al. | Identification of hand gestures using the inertial measurement unit of a smartphone: a proof-of-concept study | |
CN108475476B (en) | Apparatus and method in the form of a glove for sending and receiving information via Braille | |
KR102720677B1 (en) | rehabilitation training apparatus, rehabilitation training system having the same, and rehabilitation training method | |
JP7662246B1 (en) | Finger motion recognition device, finger alphabet output method using said device, and glove-type device for operation in virtual space | |
Saggio et al. | Evaluation of an integrated sensory glove at decreasing joint flexion degree | |
CN112166012A (en) | Motion detection device | |
Elwahsh et al. | A New Intelligent Approach for Deaf/Dumb People based on Deep Learning. | |
US11592901B2 (en) | Control device and control method for robot arm | |
KR20170063498A (en) | Wearable data input device and method thereof | |
KR20160149403A (en) | Wearable data input device and method thereof | |
KR101169717B1 (en) | The apparatus and method of change a emotion information with the five contents impormation | |
CN117798917A (en) | Bionic hand control method and device based on pressure sensing and bionic hand | |
JP2025099820A (en) | Support system, support method, and support program | |
TWI640899B (en) | Contactless gesture determining system for wearable device and determining method thereof | |
Giera et al. | Universal Wearable Haptic Glove for Force Measurement During Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240924 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20241227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7662246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |