[go: up one dir, main page]

JP2012115312A - Walking support device, and walking support program - Google Patents

Walking support device, and walking support program Download PDF

Info

Publication number
JP2012115312A
JP2012115312A JP2010265191A JP2010265191A JP2012115312A JP 2012115312 A JP2012115312 A JP 2012115312A JP 2010265191 A JP2010265191 A JP 2010265191A JP 2010265191 A JP2010265191 A JP 2010265191A JP 2012115312 A JP2012115312 A JP 2012115312A
Authority
JP
Japan
Prior art keywords
walking
walking support
target person
support target
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265191A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
敦 佐藤
Koji Inoue
浩司 井上
Saijiro Tanaka
斎二郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2010265191A priority Critical patent/JP2012115312A/en
Publication of JP2012115312A publication Critical patent/JP2012115312A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)
  • Prostheses (AREA)
  • Manipulator (AREA)

Abstract

【課題】装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置を提供する。
【解決手段】装着型ロボット1は、装着性を向上させるために筋電センサは用いずに、装着者の運動を検知して動作を制御する。このように装着者の運動を検知して動作すると1次遅れの制御となり、装着者に違和感が生じる原因となるが、装着型ロボット1は、予め装着者の動きを先読みして1次遅れの制御を補完することにより、ユーザに与える違和感を緩和する。具体的な先読み場面としては、エスカレータや動く歩道など、歩行基準面が移動する場合に、装着者が移動する歩行面上で歩行を継続するか否かを推定して先読みし、その結果によって、歩行を継続する場合の制御と、歩行を継続しない場合の制御に切り換える。
【選択図】図2
The present invention provides a walking support device with excellent wearability while reducing a sense of discomfort given to a wearer.
A wearable robot 1 controls movement by detecting a wearer's movement without using a myoelectric sensor in order to improve wearability. When the movement of the wearer is detected and operated in this way, the first-order lag control is performed, which causes a sense of incongruity to the wearer. By supplementing the control, the user feels uncomfortable. As a specific look-ahead scene, when the walking reference plane moves, such as an escalator or a moving walk, the wearer estimates whether or not to continue walking on the moving walking plane, The control is switched to control when walking is continued and control when walking is not continued.
[Selection] Figure 2

Description

本発明は、歩行支援装置、及び歩行支援プログラムに関し、例えば、装着者の歩行運動をアシストするものに関する。   The present invention relates to a walking support device and a walking support program, for example, to assisting a wearer's walking motion.

近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットには、センサなどで体の動きを検知して装着者の身体動作を支援するものであり、例えば、重量物の持ち上げや歩行運動を補助することができる。
これまでに発表された装着型ロボットは、歩行に関しては、転倒しない、装着しやすい、機器の暴走により怪我をしない、などの工夫がされているものが主であった。
In recent years, wearable robots that assist the wearer's movement have attracted attention.
The wearable robot detects a body movement with a sensor or the like and assists the wearer's body movement. For example, the wearable robot can assist lifting of heavy objects and walking movement.
Most of the wearable robots that have been announced so far have been devised, such as not toppling, easy to wear, and not to be injured by equipment runaway.

そのような中で、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」のように、如何にして装着者に違和感を感じさせずに歩行させるか、という視点から提案された技術も存在する。
この技術は、筋電センサを用いて筋電からの筋肉の動きを読み取って動作制御に利用するものである。
しかし、この技術では、装着者の身体各所に筋電センサを貼付しなければならず、装着性がよくないという問題があった。
Under such circumstances, how to walk without causing the wearer to feel uncomfortable, such as “a wearable movement assist device, a control method of the wearable movement assist device and a control program” in Patent Document 1, There is also a technology that was proposed from this perspective.
This technique uses a myoelectric sensor to read muscle movement from myoelectric and use it for motion control.
However, this technique has a problem that the electromyographic sensor has to be affixed to various parts of the wearer's body, resulting in poor wearability.

また、実施の形態で使用する通信技術に関しては、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
Moreover, regarding the communication technology used in the embodiment, there is “Lighting fixture having communication function” in Patent Document 2.
In this technique, a signal is transmitted to an illuminating body through a power line, and the signal is transmitted from the illuminating body by radio or light modulation.

特開2005−95561号公報JP 2005-95561 A 特開2009−141766号公報JP 2009-141766 A

本発明は、装着者の歩行支援に際して装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置や歩行支援プログラムを提供することを目的とする。   An object of the present invention is to provide a walking support device and a walking support program that are excellent in wearability while reducing the uncomfortable feeling given to the wearer during walking support of the wearer.

請求項1に記載の発明では、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援手段と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段と、前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段と、を具備したことを特徴とする歩行支援装置を提供する。
請求項2に記載の発明では、前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項3に記載の発明では、前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断することを特徴とする請求項2に記載の歩行支援装置を提供する。
請求項4に記載の発明では、前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段と、を具備し、前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項5に記載の発明では、前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置を提供する。
請求項6に記載の発明では、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、をコンピュータで実現する歩行支援プログラムを提供する。
In the first aspect of the present invention, the walking support means that supports the walking by controlling the movement of the foot of the walking support target person, the forward direction of the walking support target person that exists in front of the walking support target person The walking support surface detecting means for detecting the walking surface that moves in a straight line, the estimating means for estimating whether or not the walking support target person walks on the moving walking surface, and the estimation means, wherein the walking support target person Walking support control means for continuing walking support by the walking support means when it is estimated to walk, and for stopping walking support by the walking support means when it is estimated that the walking support target does not walk And a walking support device characterized by comprising:
According to a second aspect of the present invention, there is provided position detection means for detecting whether the walking support target person is located on the left or right side with respect to the moving walking surface, and the estimation means includes the detected position. It is estimated whether the said walking assistance subject walks based on this, The walk assistance apparatus of Claim 1 characterized by the above-mentioned is provided.
In invention of Claim 3, it comprises the area | region acquisition means which acquires the present area where the said walking assistance target person exists, The said estimation means is the side where the said walking assistance target person walks based on the acquired area, The walking support device according to claim 2, wherein a side that does not walk is determined.
The invention according to claim 4 comprises: a movement schedule acquisition unit that acquires a movement schedule of the walking support target person; and a delay acquisition unit that acquires a current delay with respect to the acquired movement schedule, and the estimation unit When the acquired delay is a predetermined amount or more, the walking support target person walks, and when the acquired delay is less than the predetermined amount, it is estimated that the walking support target person does not walk. A walking support device according to claim 1 is provided.
According to a fifth aspect of the present invention, there is provided acceleration acquisition means for acquiring acceleration of the foot part of the walking support target person, and the estimation means is used when the walking support target person walks on a walking surface to which the walking support target is fixed. Whether or not the walking target person walks on the walking surface by acquiring and comparing the acceleration of the foot and the acceleration of the foot when riding on the moving walking surface with the acceleration acquisition means The walking support device according to claim 1 is provided.
In the invention according to claim 6, the walking support function that supports the walking by controlling the movement of the foot of the walking support target person, and the forward direction of the walking support target person that exists in front of the walking support target person The walking support surface detection function for detecting a walking surface that moves in a straight line, the estimation function for estimating whether or not the walking support target person walks on the moving walking surface, and the estimation function, A walking support control function that continues walking support by the walking support function when it is estimated to walk and stops walking support by the walking support function when it is estimated that the walking support target does not walk. And a walking support program that realizes the above with a computer.

本発明によれば、装着者の動きを先読みすることにより装着者の歩行支援に際して装着者に与える違和感を低減しつつ、装着性の優れた歩行支援装置を提供する。   ADVANTAGE OF THE INVENTION According to this invention, the walking assistance apparatus excellent in mounting | wearing property is provided, reducing the discomfort given to a wearer at the time of a wearer's walk assistance by prefetching a wearer's movement.

エスカレータを運営する設備側の通信施設を説明するための図である。It is a figure for demonstrating the communication facility of the equipment side which manages an escalator. 装着型ロボットの装着状態や装着ロボットシステムを説明するための図である。It is a figure for demonstrating the mounting state of a mounting | wearing type robot, and a mounting robot system. エスカレータの乗口での光の照射状態などを示した図である。It is the figure which showed the irradiation state etc. of the light in the entrance of an escalator. 装着者の意図を推定する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure which estimates a wearer's intention. 乗車左右位置判断処理を説明するためのフローチャートである。It is a flowchart for demonstrating boarding left-right position determination processing. 画像認識処理を説明するためのフローチャートである。It is a flowchart for demonstrating an image recognition process. スケジューラ判断処理を説明するためのフローチャートである。It is a flowchart for demonstrating a scheduler determination process. 振上足加速度判断処理を説明するためのフローチャートである。It is a flowchart for demonstrating a raising foot acceleration judgment process.

(1)実施形態の概要
装着型ロボット1(図2(a))は、装着性を向上させるために筋電センサは用いずに、装着者の運動を検知して動作を制御する。
このように装着者の運動を検知して動作すると1次遅れの制御となり、装着者に違和感が生じる原因となるが、装着型ロボット1は、予め装着者の動きを先読みして1次遅れの制御を補完することにより、ユーザに与える違和感を緩和する。
(1) Outline of Embodiment The wearable robot 1 (FIG. 2A) detects the movement of the wearer and controls the operation without using a myoelectric sensor in order to improve the wearability.
When the movement of the wearer is detected and operated in this way, the first-order lag control is performed, which causes a sense of incongruity to the wearer. By supplementing the control, the user feels uncomfortable.

具体的な先読み場面としては、エスカレータや動く歩道など、歩行基準面が移動する場合に、装着者が移動する歩行面上で歩行を継続するか否かを推定して先読みし、その結果によって、歩行を継続する場合の制御と、歩行を継続しない場合の制御に切り換える。
推定方法には、乗車左右位置判断処理、スケジューラ判断処理、振上足加速度判断処理などがある。
As a specific look-ahead scene, when the walking reference plane moves, such as an escalator or a moving walk, the wearer estimates whether or not to continue walking on the moving walking plane, The control is switched to control when walking is continued and control when walking is not continued.
The estimation method includes a boarding left / right position determination process, a scheduler determination process, a lifting foot acceleration determination process, and the like.

乗車左右位置判断処理は、例えば、エスカレータの一方の側が立つ側、他方の側が歩く側といった習慣を利用するものである。何れの側が立つ側、あるいは歩く側かは地域によって異なるため、装着型ロボット1は、装着者の存在する地域、及び、装着者がエスカレータの何れの側に存在するか、を用いて推定する方法である。
スケジューラ判断処理は、ナビゲーション装置12を用いて装着者がスケジュールから遅れているか否かを判断し、遅れている場合はエスカレータで歩き、スケジュール通りの場合はエスカレータで立つと推定する方法である。
振上足加速度判断処理は、装着者の平常状態での歩行における足の加速度などをアーカイブに保存しておき、装着者がエスカレータに乗車する際の足の加速度を平常状態での足の加速度と比較することにより推定する方法である。
The boarding left / right position determination process uses, for example, a habit that one side of the escalator stands and the other side walks. Since which side stands or walks differs depending on the region, the wearable robot 1 uses the region where the wearer exists and the side on which the wearer exists on the escalator. It is.
The scheduler determination process is a method of using the navigation device 12 to determine whether or not the wearer is behind schedule, and when it is delayed, walk on an escalator, and if on schedule, estimate that the wearer will stand on an escalator.
In the swinging foot acceleration judgment process, the foot acceleration during walking in the normal state of the wearer is stored in an archive, and the foot acceleration when the wearer gets on the escalator is determined as the foot acceleration in the normal state. This is a method of estimation by comparison.

このように、装着型ロボット1は、装着者が公共交通機関、特にエスカレータ乗車前後における歩行意思を非接触センサ(乗車左右位置判断処理)やナビゲーション(スケジューラ判断処理)、アーカイブ(振上足加速度判断処理)、などの情報を統合的に用いて判別することにより、接触型の筋電センサを用いずに歩行支援し、装着性の悪化を抑制することができる。   In this way, the wearable robot 1 determines whether the wearer is willing to walk in public transportation, especially before and after boarding an escalator, using a non-contact sensor (ride left / right position determination process), navigation (scheduler determination process), and archive (swing acceleration acceleration determination). By using information such as processing) in an integrated manner, walking can be supported without using a contact-type myoelectric sensor, and deterioration of wearability can be suppressed.

(2)実施形態の詳細
図1は、エスカレータを運営する設備側の通信施設を説明するための図である。
装着者は、装着型ロボット1を着用し、エスカレータ300に乗降して移動する。
エスカレータ300の乗口には、照明100が設置してあり、乗口に照明光を発光している。照明100の照明光には、エスカレータ300の踏板の速度、及び踏板の繰出ピッチが含まれた踏板情報が照明光を変調することにより重畳されている。
装着型ロボット1は、照明100の照明光を照明領域内の位置200にて検知し、これに含まれる踏板情報を受信する。
(2) Details of Embodiment FIG. 1 is a diagram for explaining a communication facility on the facility side that operates an escalator.
The wearer wears the wearable robot 1 and gets on and off the escalator 300 to move.
A lighting 100 is installed at the entrance of the escalator 300, and illumination light is emitted to the entrance. On the illumination light of the illumination 100, tread information including the speed of the tread board of the escalator 300 and the feeding pitch of the tread board is superimposed by modulating the illumination light.
The wearable robot 1 detects the illumination light of the illumination 100 at a position 200 in the illumination area, and receives tread information included therein.

装着型ロボット1は、踏板情報を受信すると、所定形状パターンの光を前進方向斜め下の歩行面に照射して像を投影すると共に撮像し、その像の歪みから装着者が踏板の左右何れの側に位置するか判断する。
装着型ロボット1は、装着者の位置する側により、乗車左右位置判断処理を行って装着者が踏板を歩くのか、あるいは、踏板で立つのかを推定する。
When the wearable robot 1 receives the tread information, the wearable robot 1 projects and captures an image by irradiating a predetermined shape pattern of light onto the walking surface diagonally downward in the forward direction. Judge whether it is located on the side.
The wearable robot 1 performs a boarding left / right position determination process on the side where the wearer is located, and estimates whether the wearer walks on the tread board or stands on the tread board.

また、乗車左右位置判断処理で判断できない場合は、スケジューラ判断処理を行い、スケジューラ判断処理で判断できない場合は、更に、振上足加速度判断処理を行って、装着者がエスカレータ300で歩くのか、あるいは停止するのかを推定する。   If the boarding left / right position determination process cannot be performed, the scheduler determination process is performed. If the scheduler determination process cannot be performed, the swing leg acceleration determination process is further performed, and the wearer walks on the escalator 300, or Estimate whether to stop.

そして、装着型ロボット1は、装着者がエスカレータ300を歩くと推定した場合は、エスカレータ300の乗車の際に、装着者の動作を先回りして踏板を歩く歩行動作を開始し、装着者がエスカレータ300で立つと推定した場合は、エスカレータ300の乗車の際に、装着者の動作を先回りして踏板上に立つ動作を開始する。   Then, when it is estimated that the wearer walks the escalator 300, the wearable robot 1 starts the walking motion of walking on the tread before the wearer's motion when the escalator 300 is boarded. When it is estimated that the vehicle stands at 300, when the escalator 300 is boarded, the operation of standing on the tread is started ahead of the wearer's operation.

また、エスカレータ300の降口手前の照明101が発光する光にも踏板情報が含まれており、装着型ロボット1は、照明101の照明領域内の位置201にて踏板情報を受信する。
そして、装着型ロボット1は、踏板情報を受信すると、位置202で前方斜め下に像を投影し、その歪みから櫛板と踏板の段差を検出して櫛板までの距離を算出する。
次に、装着型ロボット1は、櫛板までの距離、及び踏板情報を用いて装着者の足が適切に櫛板(コムプレート)に着地するように駆動する。
Moreover, the tread information is also included in the light emitted by the illumination 101 before exiting the escalator 300, and the wearable robot 1 receives the tread information at a position 201 in the illumination area of the illumination 101.
When receiving the tread board information, the wearable robot 1 projects an image obliquely forward and downward at the position 202, detects a step between the comb board and the tread board from the distortion, and calculates the distance to the comb board.
Next, the wearable robot 1 drives the wearer's foot to appropriately land on the comb plate (com plate) using the distance to the comb plate and the tread board information.

降口の照明102が発光する光には、周辺地図情報が含まれており、装着型ロボット1は、照明102の照明領域の位置203で周辺地図情報を受信する。
その後、装着型ロボット1は、周辺地図情報を用いて装着者の歩行を支援する。
図1のエスカレータ300は、一例として、下りとなっているが、上りのエスカレータも同様である。また、乗口と降口の構造が同じため、エスカレータ300を動く歩道としてもよい。
The light emitted from the illumination 102 at the exit exit includes peripheral map information, and the wearable robot 1 receives the peripheral map information at the position 203 of the illumination area of the illumination 102.
Thereafter, the wearable robot 1 supports walking of the wearer using the surrounding map information.
The escalator 300 in FIG. 1 is down as an example, but the up escalator is the same. Further, since the structure of the entrance and exit is the same, the escalator 300 may be a moving sidewalk.

図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
FIG. 2A is a diagram showing a wearing state of the wearing robot 1.
The wearable robot 1 is worn on the waist and lower limbs of the wearer to assist (assist) the wearer's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.

装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、無線通信装置10、及びナビゲーション装置12などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist attachment unit 7, a walking assist unit 2, a connection unit 8, a 3-axis sensor 3, a 3-axis actuator 6, an imaging camera 5, a light source device 4, an imaging unit that holds the imaging camera 5 and the light source device 4. 9, a wireless communication device 10, a navigation device 12, and the like.
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the waist of the wearer. The waist mounting portion 7 moves integrally with the wearer's waist.
The waist mounting portion 7 includes a walking actuator 17 (FIG. 2B), and drives the connecting portion 8 in the front-rear direction according to the walking motion of the wearer.

連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting part 8 connects the waist mounting part 7 and the walking assist part 2.
The walking assist unit 2 is mounted on the lower limb of the wearer and is driven in the front-rear direction by the walking actuator 17 to assist the wearer's walking motion.
The walking support by the waist mounting portion 7, the connecting portion 8, and the walking assist unit 2 is an example, and various forms such as walking support by a multi-joint drive mechanism are possible.

3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the rotation angle, angular velocity, and angular acceleration around the forward, vertical, and body-side axes. Can be detected.
The angle around the forward axis is the roll angle, the angle around the vertical axis is the yaw angle, and the angle around the body-side axis is the pitch angle.

3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the imaging camera 5 and the light source device 4 are installed.
The light source device 4 and the imaging camera 5 are fixed to the imaging unit 9, and when the triaxial actuator 6 is driven, the irradiation direction of the light source device 4 (the direction of the optical axis of the light source device 4) and the imaging direction of the imaging camera 5. (The direction of the optical axis of the imaging camera 5) changes the roll angle, yaw angle, and pitch angle with respect to the waist mounting portion 7 while maintaining the relative angle.

撮像ユニット9で適切な画像を撮像するためには、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、装着者が歩行する歩行面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。   In order to capture an appropriate image with the imaging unit 9, the imaging unit 9 needs to be directed to a walking reference plane (a walking surface on which the wearer walks, such as the ground or a floor) at a predetermined angle. When the wearable robot 1 is worn, the imaging unit 9 tilts depending on the wearing state, and this is corrected by the triaxial actuator 6.

光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。   The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 emits light in a shape pattern that is circular with respect to a plane perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, and a dot are possible.

撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(エスカレータ300の側壁、段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより、装着者がエスカレータ300の何れの側にいるか、また、前方に存在する段差などを検知することができる。
The imaging camera 5 is configured by an infrared light camera, a visible light camera, or the like that includes an optical system for forming an image of a subject and a CCD (Charge-Coupled Device) that converts the imaged subject to an electrical signal. The light source device 4 captures (shoots) a projection image irradiated on the walking reference plane.
The projection image by the light irradiated by the light source device 4 with a predetermined shape pattern is deformed from a circle due to an angle formed by the irradiation direction and the walking reference plane, and obstacles (such as side walls and steps of the escalator 300) present on the walking reference plane. Although it becomes a (distorted) shape, by analyzing this shape, it is possible to detect which side of the escalator 300 the wearer is on or the step existing in the front.

無線通信装置10は、照明100が発光する光に含まれる踏板情報などの各種情報を検出する。
これにより、装着型ロボット1は、前方にエスカレータ300の乗口が存在すること、あるいは、照明101からの踏板情報により、エスカレータ300の降口が存在することを認識する。
ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定することができるほか、通常、エスカレータの設置箇所には照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
The wireless communication device 10 detects various types of information such as tread information included in the light emitted from the lighting 100.
Thereby, the wearable robot 1 recognizes that the entrance of the escalator 300 exists in front, or that the exit of the escalator 300 exists based on the tread information from the lighting 101.
Here, the illumination light is used for wireless communication because the location where information is received can be limited to the illumination area, and the illumination is usually installed at the location where the escalator is installed. This is because new equipment investment for communication can be reduced.
Note that wireless communication using normal radio waves may be used without using illumination light.

ナビゲーション装置12は、GPS(Global Positioning Systems)衛星からのGPS信号を受信したり、所定のサーバと通信したりして装着者の現在位置を特定したり、現在位置から目的地までの経路を探索したりなどのナビゲーション機能を有している。
装着型ロボット1は、ナビゲーション装置12により、装着者がスケジュール通りに歩行しているか否かを判断することができる。
The navigation device 12 receives a GPS signal from a GPS (Global Positioning Systems) satellite, communicates with a predetermined server, specifies the current position of the wearer, and searches for a route from the current position to the destination. It has a navigation function.
The wearable robot 1 can determine whether or not the wearer is walking according to the schedule by the navigation device 12.

図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
FIG. 2B is a diagram for explaining the mounting robot system 15 installed in the mounting robot 1.
The wearing robot system 15 is an electronic control system that controls the wearing robot 1 so as to exhibit a walking support function.

ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。   The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.

CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、装着者がエスカレータ300で歩行を持続するのか否かを推定したり、当該推定結果を用いて歩行アクチュエータ17を駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、無線通信装置10、及びナビゲーション装置12とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から踏板情報を取得したり、ナビゲーション装置12から装着者の現在位置を取得したりする。
The CPU executes various computer programs stored in the storage medium to estimate whether or not the wearer continues walking on the escalator 300, or drives the walking actuator 17 using the estimation result to provide walking support. To go.
The CPU is connected to the light source device 4, the imaging camera 5, the three-axis actuator 6, the three-axis sensor 3, the wireless communication device 10, and the navigation device 12 through an interface, and turns on / off irradiation from the light source device 4. , Acquiring imaging data from the imaging camera 5, driving the triaxial actuator 6, obtaining detection values from the triaxial sensor 3, obtaining tread information from the wireless communication device 10, and wearing from the navigation device 12 Get the current location.

ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、受信した踏板情報を記憶したり、段差までの距離を計算したりするためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for storing received tread information and calculating a distance to a step is provided.

記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。   The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and analyzes the projection image of the light source device 4 to recognize steps such as stairs and escalators. And various programs such as a program for performing walking support, parameters such as the height of the imaging camera 5 used for image recognition for level difference recognition, and the like are stored.

歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
The walking actuator 17 drives the walking assist unit 2 based on a command from the ECU 16.
When the wearable robot 1 is a multi-joint having a hip joint, a knee joint, an ankle joint, or the like, a walking actuator 17 is provided in each joint, and the ECU 16 controls these individually so that the wearable robot 1 The walking support operation is performed as one.

図3(a)は、エスカレータ300の乗口での光の照射状態を示した図である。
エスカレータ300の乗口は、櫛板40と、櫛板40の前方かつ櫛板40より低い位置に配設された踏板(ステップ)50を備えており、装着者の両体側方向には、図示しないエスカレータ300の側壁が存在している。
櫛板40の先端部分は、平坦部41と、踏板50にかけて形成された傾斜部42を有しており、傾斜部42による段差が形成されている。そして、傾斜部42の先端からは、踏板50が所定速度で繰り出されている。
FIG. 3A is a diagram showing a light irradiation state at the entrance of the escalator 300.
The entrance of the escalator 300 includes a comb plate 40 and a step board (step) 50 disposed in front of the comb plate 40 and at a position lower than the comb plate 40, and is not shown in the direction of both sides of the wearer. The side wall of the escalator 300 exists.
The tip portion of the comb plate 40 has a flat portion 41 and an inclined portion 42 formed over the tread plate 50, and a step due to the inclined portion 42 is formed. And the tread board 50 is drawn out from the front-end | tip of the inclination part 42 at predetermined speed.

図3(b)は、乗口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、光源装置4によって所定形状パターンの光を照射し、撮像カメラ5によって投影された像を撮像する。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に存在する歩行基準面に照射するため、歩行基準面が平面の場合、投影像26は、画面フレーム31内で前進方向を長軸とする楕円形となる。
FIG. 3B is an example of an image of the projection image 26 of the light source device 4 captured by the imaging camera 5 at the entrance.
The wearable robot 1 irradiates light of a predetermined shape pattern with the light source device 4 and captures an image projected by the imaging camera 5.
In the present embodiment, since the light source device 4 irradiates light with a circular cross section onto a walking reference plane that exists obliquely downward in the forward direction, when the walking reference plane is a plane, the projected image 26 is forwarded in the screen frame 31. An ellipse with the major axis as.

この場合、装着者がエスカレータ300の左側に位置すると投影像26の左側がひしゃげた形状となるため(即ち、本来投影されるはずの楕円形状が、立ち位置側が歪んだ形となるため)、装着型ロボット1は、装着者がエスカレータ300の左側に立っている(立ち位置が左側である)と判断することができる。投影像26の左側がひしゃげていることの判断は、投影像26の中心から左端までの距離aが右端までの距離bよりも小さいことを検出して行う。
同様に、投影像26の右側がひしゃげている場合は、装着者は、エスカレータ300の右側に位置していると判断される。
In this case, when the wearer is positioned on the left side of the escalator 300, the left side of the projection image 26 has a lazy shape (that is, the elliptical shape that should originally be projected is distorted on the standing position side). The type robot 1 can determine that the wearer is standing on the left side of the escalator 300 (the standing position is on the left side). Judgment that the left side of the projection image 26 is crooked is performed by detecting that the distance a from the center of the projection image 26 to the left end is smaller than the distance b to the right end.
Similarly, when the right side of the projection image 26 is lazy, it is determined that the wearer is located on the right side of the escalator 300.

なお、照明100からの踏板情報によって装着者が櫛板40に到達したことを検出した場合に、装着型ロボット1が光源装置4の光を装着者の体側方向に広げて、エスカレータ300の側壁に光が当たりやすくするように構成することもできる。
更に、櫛板40と踏板50の段差を投影像26によって認識することにより、傾斜部42による段差を検出することもできる。
装着型ロボット1は、このように画像認識によって当該段差までの距離を計測し、また、踏板情報からの踏板の速度、及び繰出ピッチを取得し、これらの情報を用いて踏板50に適切に乗れるように歩幅や歩行ピッチを制御する。
Note that when the wearer detects that the wearer has reached the comb plate 40 based on the tread board information from the lighting 100, the wearable robot 1 spreads the light of the light source device 4 in the body side direction of the wearer, and on the side wall of the escalator 300. It can also be configured to make it easier for light to strike.
Further, by recognizing the step between the comb plate 40 and the tread plate 50 from the projection image 26, the step due to the inclined portion 42 can be detected.
The wearable robot 1 thus measures the distance to the step by image recognition, acquires the speed of the tread and the feeding pitch from the tread information, and can appropriately ride on the tread 50 using these information. To control the stride and walking pitch.

図4は、装着型ロボット1がエスカレータ300において、装着者の意図を推定する手順を説明するためのフローチャートである。
当該推定により装着者の意図を先読みし、装着者の動作を先回りして支援することが可能となる。
なお、以下の処理は、ECU16のCPUが所定のプログラムに従って行うものである。
FIG. 4 is a flowchart for explaining a procedure in which the wearable robot 1 estimates the wearer's intention in the escalator 300.
With this estimation, it is possible to pre-read the wearer's intention and to support the wearer's movement in advance.
The following processing is performed by the CPU of the ECU 16 according to a predetermined program.

まず、CPUは、乗車左右位置判断処理を行う(ステップ5)。
乗車左右位置判断手段で、装着者の歩行の有無を推定できた場合には(ステップ10;Y)、CPUは、当該推定に基づいて歩行アクチュエータ17を制御する(ステップ30)。
一方、乗車左右位置判断手段で、装着者の歩行の有無を推定できなかった場合には(ステップ10;N)、CPUは、スケジューラ判断処理を行う(ステップ15)。
First, the CPU performs a boarding left / right position determination process (step 5).
When the boarding left / right position determination means can estimate the presence / absence of the wearer's walking (step 10; Y), the CPU controls the walking actuator 17 based on the estimation (step 30).
On the other hand, when the boarding left / right position determining means cannot estimate the presence or absence of the wearer's walk (step 10; N), the CPU performs a scheduler determination process (step 15).

スケジューラ判断手段で、装着者の歩行の有無を推定できた場合には(ステップ20;Y)、CPUは、当該推定に基づいて歩行アクチュエータ17を制御する(ステップ30)。
一方、スケジューラ判断手段で、装着者の歩行の有無を推定できなかった場合には(ステップ20;N)、CPUは、振上足加速度判断処理を行い(ステップ25)、当該処理による推定結果に基づいて歩行アクチュエータ17を制御する(ステップ30)。
When the scheduler determination means can estimate the presence / absence of the wearer's walking (step 20; Y), the CPU controls the walking actuator 17 based on the estimation (step 30).
On the other hand, if the scheduler determination means cannot estimate the presence / absence of the wearer's walking (step 20; N), the CPU performs a swing-up foot acceleration determination process (step 25), and the estimation result by the process is displayed. Based on this, the walking actuator 17 is controlled (step 30).

図5は、ステップ5の乗車左右位置判断処理を説明するためのフローチャートである。
まず、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ50)。設備側の通信範囲にいない場合(ステップ50;N)、引き続きステップ50で監視を継続する。
FIG. 5 is a flowchart for explaining the boarding left / right position determination processing in step 5.
First, the CPU determines whether or not it is in the communication range on the equipment side (step 50). If it is not in the communication range on the equipment side (step 50; N), monitoring is continued in step 50.

設備側の通信範囲にいる場合(ステップ50;Y)、CPUは、現在位置の地域を取得してRAMに記憶する(ステップ55)。
ここで、地域には、エスカレータ300の左側で停止し、右側を歩行する地域(右側歩行地域)、及び、左側を歩行し、右側で停止する地域(左側歩行地域)がある。一般的に、関東地方は、右側歩行地域に該当し、関西地方は左側歩行地域に該当する。
ECU16の記憶装置には、例えば、○○県は右側歩行地域といった歩行地域マップが記憶されており、CPUは、ナビゲーション装置12で検出した現在位置を歩行地域マップで参照して、現在位置の地域が何れの地域であるかを取得する。
When in the communication range on the equipment side (step 50; Y), the CPU acquires the area of the current position and stores it in the RAM (step 55).
Here, there are an area that stops on the left side of the escalator 300 and walks on the right side (right walking area) and an area that walks on the left side and stops on the right side (left walking area). In general, the Kanto region corresponds to the right walking region, and the Kansai region corresponds to the left walking region.
In the storage device of the ECU 16, for example, a walking area map such as the right walking area is stored for XX prefecture, and the CPU refers to the current position detected by the navigation device 12 in the walking area map, and the area of the current position. To which region is.

次に、CPUは、画像認識処理を行って、装着者がエスカレータ300の何れの側に乗車するかを判断し、判断結果(右側乗車、左側乗車)をRAMに記憶する(ステップ60)。
次に、CPUは、ステップ55で記憶した現在位置の地域をRAMから読み出す。読み出した地域が右側歩行地域である場合(ステップ65;Y)、CPUは、ステップ60で記憶した判断結果をRAMから読み出し、判断結果が右側乗車か否かを判断する(ステップ70)。
右側乗車であった場合(ステップ70;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ75)。
Next, the CPU performs image recognition processing to determine which side of the escalator 300 the wearer gets on, and stores the determination result (right side ride, left side ride) in the RAM (step 60).
Next, the CPU reads out the area of the current position stored in step 55 from the RAM. When the read area is the right walking area (step 65; Y), the CPU reads the determination result stored in step 60 from the RAM, and determines whether the determination result is right boarding (step 70).
When it is a right boarding (step 70; Y), CPU estimates that it is a walk and memorize | stores an estimation result in RAM (step 75).

一方、ステップ70で右側乗車でなかった場合(ステップ70;N)、CPUは、RAMに記憶した判断結果が左側乗車であるか否かを判断する(ステップ80)。
判断結果が左側乗車であった場合(ステップ80;Y)、CPUは、停止と推定し、推定結果をRAMに記憶する(ステップ85)。
また、判断結果が左側乗車でなかった場合(ステップ80;N)、装着者は、中央付近に乗車しようとしていることが推定され、この場合は、乗車左右位置判断処理では推定できないため、CPUは、スケジューラ判断処理へ移行する(ステップ90)。
On the other hand, when it is not the right boarding in Step 70 (Step 70; N), the CPU judges whether or not the judgment result stored in the RAM is the left boarding (Step 80).
If the determination result is a left-hand ride (step 80; Y), the CPU estimates that the vehicle is stopped and stores the estimation result in the RAM (step 85).
Further, if the determination result is not the left-side boarding (step 80; N), it is estimated that the wearer is about to get near the center. In this case, the CPU cannot estimate the boarding left-right position determination process. The process proceeds to scheduler determination processing (step 90).

一方、ステップ65で右側歩行地域でないと判断された場合(ステップ65;N)、CPUは、ステップ60で記憶した判断結果をRAMから読み出し、判断結果が左側乗車か否かを判断する(ステップ95)。
左側乗車であった場合(ステップ95;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ100)。
On the other hand, when it is determined in step 65 that it is not the right walking area (step 65; N), the CPU reads out the determination result stored in step 60 from the RAM and determines whether the determination result is a left-side boarding (step 95). ).
When it is a left boarding (step 95; Y), CPU estimates that it is a walk and memorize | stores an estimation result in RAM (step 100).

一方、ステップ95で左側乗車でなかった場合(ステップ95;N)、CPUは、RAMに記憶した判断結果が右側乗車であるか否かを判断する(ステップ105)。これは、装着者が左側に乗車しようとした後、右側に移動した可能性があるためである。
判断結果が右側乗車であった場合(ステップ105;Y)、CPUは、停止と推定し、推定結果をRAMに記憶する(ステップ110)。
また、判断結果が右側乗車でなかった場合(ステップ105;N)、CPUは、スケジューラ判断処理へ移行する(ステップ115)。
On the other hand, when it is not left boarding at Step 95 (Step 95; N), the CPU judges whether or not the judgment result stored in the RAM is right boarding (Step 105). This is because the wearer may move to the right side after trying to get on the left side.
If the determination result is a right-hand ride (step 105; Y), the CPU estimates that the vehicle is stopped and stores the estimation result in the RAM (step 110).
If the determination result is not right-side boarding (step 105; N), the CPU proceeds to scheduler determination processing (step 115).

図6は、ステップ60の画像認識処理を説明するためのフローチャートである。
まず、CPUは、光源装置4により光を前進方向の下方に照射する(ステップ150)。
次に、CPUは、光によって投射された投影像26を撮像カメラ5で撮像し、画像データをRAMに記憶する(ステップ155)。
FIG. 6 is a flowchart for explaining the image recognition processing in step 60.
First, the CPU irradiates light downward in the forward direction with the light source device 4 (step 150).
Next, the CPU images the projection image 26 projected by the light with the imaging camera 5, and stores the image data in the RAM (step 155).

次に、CPUは、RAMに記憶した画像データを用いて、投影像26の中心から左端までの距離aと右端までの距離bを取得し、aとbの大小関係から投影像26の何れの側がひしゃげているかを判断する画像認識処理を行い、認識結果をRAMに記憶する(ステップ160)。   Next, the CPU acquires the distance a from the center of the projection image 26 to the left end and the distance b from the right end using the image data stored in the RAM, and determines any of the projection images 26 from the magnitude relationship between a and b. Image recognition processing is performed to determine whether the side is lazy, and the recognition result is stored in the RAM (step 160).

次に、CPUは、ステップ160で記憶した画像認識結果をRAMから読み出し、当該結果により投影像26の左側がひしゃげているか否かを判断する(ステップ165)。
左側がひしゃげている場合(ステップ165;Y)、CPUは、装着者は左側に位置しており、左乗車すると判断する(ステップ170)。
Next, the CPU reads the image recognition result stored in step 160 from the RAM, and determines whether or not the left side of the projection image 26 is lazy based on the result (step 165).
When the left side is lazy (step 165; Y), the CPU determines that the wearer is located on the left side and gets on the left (step 170).

一方、当該結果により投影像26の左側がひしゃげていると判断されない場合(ステップ165;N)、CPUは、ステップ160で記憶した画像認識結果をRAMから読み出し、当該結果により投影像26の右側がひしゃげているか否かを判断する(ステップ175)。   On the other hand, when it is not determined that the left side of the projection image 26 is distorted based on the result (step 165; N), the CPU reads the image recognition result stored in step 160 from the RAM, and the right side of the projection image 26 is determined based on the result. It is determined whether or not it is lazy (step 175).

右側がひしゃげている場合(ステップ175;Y)、CPUは、装着者は右側に位置しており、右乗車すると判断する(ステップ180)。
一方、当該結果により投影像26の右側がひしゃげていると判断されない場合(ステップ175;N)、CPUは、装着者が中央に位置していると判断する(ステップ185)。
When the right side is lazy (step 175; Y), the CPU determines that the wearer is located on the right side and gets on the right (step 180).
On the other hand, when it is not determined that the right side of the projection image 26 is sluggish based on the result (step 175; N), the CPU determines that the wearer is located in the center (step 185).

図7は、ステップ15のスケジューラ判断処理を説明するためのフローチャートである。
まず、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ200)。設備側の通信範囲にいない場合(ステップ200;N)、引き続きステップ200で監視を継続する。
FIG. 7 is a flowchart for explaining the scheduler determination processing in step 15.
First, the CPU determines whether or not the communication range is on the facility side (step 200). If it is not within the communication range on the equipment side (step 200; N), monitoring is continued in step 200.

設備側の通信範囲にいる場合(ステップ200;Y)、CPUは、ナビゲーション装置12から現在位置、到着予想時間、及び到着予定時間を取得してRAMに記憶する(ステップ205)。
次に、CPUは、装着者がスケジュール時間に対して遅れているか否かを判断する(ステップ210)。
When in the communication range on the equipment side (step 200; Y), the CPU acquires the current position, estimated arrival time, and estimated arrival time from the navigation device 12 and stores them in the RAM (step 205).
Next, the CPU determines whether or not the wearer is behind the schedule time (step 210).

この判断は、例えば、到着予想時間が到着予定時間よりも所定時間以上遅い場合に遅れていると判断したり、あるいは、装着者がスケジュール上存在すべき位置と現在位置を比較して、現在位置がスケジュール上存在すべき位置よりも所定距離以上後方の場合に遅れていると判断することができる。   This determination is made, for example, when the estimated arrival time is later than the estimated arrival time by a predetermined time or later, or by comparing the current position with the position where the wearer should be on the schedule, Can be determined to be delayed if it is behind a predetermined distance from the position on the schedule.

遅れていると判断した場合(ステップ210;Y)、CPUは、歩行と推定し、推定結果をRAMに記憶する(ステップ215)。
一方、遅れていないと判断した場合(ステップ210;N)、CPUは、振上足加速度判断処理へ移行する(ステップ220)。
If it is determined that it is delayed (step 210; Y), the CPU estimates walking and stores the estimation result in the RAM (step 215).
On the other hand, when determining that it is not delayed (step 210; N), the CPU proceeds to the swing-up foot acceleration determination process (step 220).

図8は、ステップ25の振上足加速度判断処理を説明するためのフローチャートである。
CPUは、足部に設置した加速度センサにより左右各足の振上加速度a1を取得してRAMに記憶する(ステップ250)。
次に、CPUは、設備側の通信範囲にいるか否かを判断する(ステップ255)。設備側の通信範囲にいない場合(ステップ255;N)、ステップ250に戻って振上加速度a1の計測と記憶を継続する。
FIG. 8 is a flowchart for explaining the swing-up foot acceleration determination process in step 25.
The CPU acquires the swing acceleration a1 of each of the left and right feet by an acceleration sensor installed on the foot and stores it in the RAM (step 250).
Next, the CPU determines whether or not the communication range is on the equipment side (step 255). When it is not within the communication range on the equipment side (step 255; N), the process returns to step 250 to continue measurement and storage of the swing acceleration a1.

設備側の通信範囲にいる場合(ステップ255;Y)、CPUは、一方の足が踏板50に着地したか否かを判断する(ステップ260)。
この判断は、例えば、撮像ユニット9によって画像認識した櫛板40と踏板50の段差を越えた第一歩目であることを歩行距離から認識して行ったり、あるいは、ナビゲーション装置12により装着者の位置を特定して行ったり、あるいは、足が着地した箇所の高さが櫛板40と踏板50の段差の高さ分だけ低下したことを認識して行うことができる。また、他の方法を用いてもよい。
When in the communication range on the equipment side (step 255; Y), the CPU determines whether one foot has landed on the tread board 50 (step 260).
This determination is made by, for example, recognizing from the walking distance that the first step has passed the step between the comb board 40 and the tread board 50 recognized by the imaging unit 9, or the navigation device 12 is used for the wearer. This can be done by specifying the position, or by recognizing that the height of the place where the foot has landed has decreased by the height of the step between the comb plate 40 and the tread plate 50. Other methods may also be used.

CPUは、一方の足が踏板50に着地していないと判断した場合(ステップ260;N)、引き続きステップ260で着地したか否かを監視し、一方の足が踏板50に着地したと判断した場合(ステップ260;Y)引きつけ足の振上加速度a2を取得してRAMに記憶する(ステップ265)。
次に、CPUは、ステップ250で記憶した振上加速度a1と、ステップ265で記憶した振上加速度a2をRAMから読み出して両者の大小関係を判断する(ステップ270)。
When the CPU determines that one of the feet has not landed on the tread 50 (step 260; N), the CPU continuously monitors whether or not it has landed in step 260 and determines that one of the feet has landed on the tread 50. In the case (step 260; Y), the lifting acceleration a2 of the attracting foot is acquired and stored in the RAM (step 265).
Next, the CPU reads the acceleration acceleration a1 stored in step 250 and the acceleration acceleration a2 stored in step 265 from the RAM, and determines the magnitude relationship between them (step 270).

a1がa2より大きい場合(ステップ270;Y)、CPUは、装着者がエスカレータ300で停止すると推定し、当該推定結果をRAMに記憶する(ステップ275)。
一方、a2がa1以上の場合(ステップ270;N)、CPUは、装着者がエスカレータ300を歩行すると推定し、当該推定結果をRAMに記憶する(ステップ280)。
When a1 is larger than a2 (step 270; Y), the CPU estimates that the wearer stops at the escalator 300, and stores the estimation result in the RAM (step 275).
On the other hand, if a2 is greater than or equal to a1 (step 270; N), the CPU estimates that the wearer walks on the escalator 300, and stores the estimation result in the RAM (step 280).

以上の実施の形態では、装着者がエスカレータ300に乗車する場合について説明したが、動く歩道に乗車する場合に適用することもできる。   In the above embodiment, the case where the wearer gets on the escalator 300 has been described. However, the present invention can be applied to the case where the wearer gets on a moving sidewalk.

以上に説明した実施の形態により、次の効果を得ることができる。
(1)装着型ロボット1に筋電センサなどを用いる必要がなくなり、装着型ロボット1の装着性を向上させることができる。
(2)装着型ロボット1は、エスカレータ300において装着者の歩行、又は停止の意図を推定することにより先回りして制御し、これによって、一次遅れの制御による違和感を緩和することができる。
(3)装着型ロボット1は、エスカレータ300に対する装着者の位置、スケジュール、振上足の加速度の3つの方法を段階的に適用することにより、精度の高い推定を行うことができる。
(4)照明器具は、特別な事情がない限り固定された場所で使われることを利用し、装着型ロボット1は、エスカレータ300の乗降口に設置された照明設備より、踏板情報を受信して得ることができる。また、施設側は、既存の設備を用いて踏板情報を送信することができるため、設備投資を低減することができる。
According to the embodiment described above, the following effects can be obtained.
(1) It is not necessary to use a myoelectric sensor or the like for the wearable robot 1, and the wearability of the wearable robot 1 can be improved.
(2) The wearable robot 1 performs control in advance by estimating the intention of the wearer to walk or stop in the escalator 300, and thereby can relieve the uncomfortable feeling caused by the first-order delay control.
(3) The wearable robot 1 can perform highly accurate estimation by stepwise applying the three methods of the wearer's position with respect to the escalator 300, the schedule, and the acceleration of the lifting foot.
(4) Utilizing that the lighting fixture is used in a fixed place unless there is a special circumstance, the wearable robot 1 receives the tread information from the lighting equipment installed at the entrance of the escalator 300. Obtainable. Moreover, since the facility side can transmit tread information using the existing equipment, capital investment can be reduced.

更に、以上に説明した実施の形態により、次の構成を提供することができる。
装着型ロボット1は、歩行アシスト部2や連結部8を駆動して装着者の歩行を支援するため、歩行支援対象者(装着者)の足部の動きを制御して歩行を支援する歩行支援手段を備えている。
また、装着型ロボット1は、照明100からの情報により前進方向にエスカレータ300が存在することを検出し、また、踏板50は、移動する歩行面として機能するため、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段を備えている。
また、装着型ロボット1は、乗車左右位置判断処理、スケジューラ判断処理、振上足加速度判断処理によって、装着者がエスカレータ300を歩くか否かを推定するため、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段を備えている。
そして、装着型ロボット1は、装着者がエスカレータ300を歩くと推定した場合は、エスカレータ300での歩行を支援し、歩かないと推定した場合には、歩行支援を停止して装着者が踏板50の上に立つ姿勢を支援するため、前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段を備えている。
よって、装着型ロボット1は、以上の手段を備えた歩行支援装置として機能している。
Furthermore, according to the embodiment described above, the following configuration can be provided.
Since the wearable robot 1 supports the walking of the wearer by driving the walking assist unit 2 and the connecting unit 8, the walking support that supports walking by controlling the movement of the foot of the walking support target person (wearer). Means.
The wearable robot 1 detects the presence of the escalator 300 in the forward direction based on information from the illumination 100, and the tread board 50 functions as a moving walking surface. There is provided a moving walking surface detection means for detecting a walking surface that exists and moves in the forward direction of the walking support target person.
In addition, the wearable robot 1 estimates whether or not the wearer walks the escalator 300 through the boarding left / right position determination process, the scheduler determination process, and the lifting foot acceleration determination process, so that the walking support target moves An estimation means for estimating whether or not to walk on the walking surface is provided.
When the wearable robot 1 estimates that the wearer walks the escalator 300, the wearable robot 1 supports walking on the escalator 300. If the wearable robot 1 estimates that the wearer does not walk, the wearable robot 1 stops walking support and the wearer moves the tread 50 If it is estimated that the walking support target person walks with the estimating means in order to support a posture standing on the top, the walking support by the walking support means is continued and the walking support target person does not walk. When estimated, the walking support control means for stopping the walking support by the walking support means is provided.
Therefore, the wearable robot 1 functions as a walking support device including the above means.

また、装着型ロボット1は、乗車左右位置判断処理では、エスカレータ300の乗口の櫛板40で投影像26により装着者の立ち位置を検出して歩行の意図の有無を推定するため、前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定している。   Further, in the boarding left / right position determination process, the wearable robot 1 detects the wearer's standing position from the projection image 26 with the comb plate 40 at the entrance of the escalator 300 and estimates the intention of walking. Position detecting means for detecting whether the support target person is located on the left or right side with respect to the moving walking surface, and the estimation means walks the walking support target person based on the detected position. It is estimated whether or not.

また、装着型ロボット1は、装着者が右側歩行地域にいるか否かを認識して、これに基づいて歩行する側としない側を判断するため、前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断している。   Also, the wearable robot 1 recognizes whether or not the wearer is in the right walking area, and based on this, determines the side to walk and the side to not walk, so that the current area where the walking support target person exists is acquired. And an estimation unit that determines whether the walking support target person walks or does not walk based on the acquired area.

また、装着型ロボット1は、スケジューラ判断処理で、装着者の移動スケジュールを取得し、ナビゲーション装置12を用いてスケジュールからの遅れを評価するため、前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段を備えている。
そして、装着型ロボット1は、スケジュールからの遅れが所定量以上の場合に装着者が歩行すると推定するため、前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定している。
In addition, the wearable robot 1 acquires the movement schedule of the wearer in the scheduler determination process, and evaluates the delay from the schedule using the navigation device 12, so that the movement schedule of the walking support target person is acquired. An acquisition means and a delay acquisition means for acquiring a current delay with respect to the acquired movement schedule are provided.
Since the wearable robot 1 estimates that the wearer walks when the delay from the schedule is equal to or greater than a predetermined amount, the estimation unit is configured to support the walking support when the acquired delay is equal to or greater than the predetermined amount. When the person walks and the acquired delay is less than a predetermined amount, it is estimated that the walking support target person does not walk.

また、装着型ロボット1は、振上足加速度判断処理で装着者の振上足加速度を取得し、これを通常歩行時の振上足加速度と比較して歩行の意図の有無を推定するため、前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定している。   In addition, the wearable robot 1 obtains the wearer's raising foot acceleration in the raising foot acceleration determination process, and compares this with the raising foot acceleration during normal walking to estimate the presence or absence of the intention of walking. Acceleration acquisition means for acquiring acceleration of the foot part of the walking support target person, and the estimation means includes the acceleration and the movement of the foot part when the walking support target person walks on a fixed walking surface. It is estimated whether the said walking assistance target person walks on the said walking surface by acquiring and comparing the acceleration of the said foot | leg at the time of boarding the walking surface to be performed with the said acceleration acquisition means.

また、装着型ロボット1は、ECU16の記憶媒体に、歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、をコンピュータで実現する歩行支援プログラムを記憶している。   In addition, the wearable robot 1 exists in the storage medium of the ECU 16 in a walking support function for supporting walking by controlling the movement of the foot of the walking support target person, and in front of the walking support target person. A moving walking surface detection function that detects a walking surface that moves in the forward direction of the subject, an estimation function that estimates whether or not the walking support target person walks on the moving walking surface, and the estimation function, When it is estimated that the walking support target person walks, the walking support by the walking support function is continued, and when it is estimated that the walking support target person does not walk, the walking support by the walking support function is stopped. A walking support program for realizing a walking support control function with a computer is stored.

1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
12 ナビゲーション装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 櫛板
41 平坦部
42 傾斜部
50 踏板
100〜102 照明
200〜203 位置
300 エスカレータ
DESCRIPTION OF SYMBOLS 1 Wearable robot 2 Walking assist part 3 3-axis sensor 4 Light source device 5 Imaging camera 6 3-axis actuator 7 Lumbar mounting part 8 Connection part 9 Imaging unit 10 Wireless communication apparatus 12 Navigation apparatus 15 Wearing robot system 16 ECU
17 Walking actuator 26 Projected image 31 Screen frame 40 Comb plate 41 Flat part 42 Inclined part 50 Step board 100-102 Illumination 200-203 Position 300 Escalator

Claims (6)

歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援手段と、
前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出手段と、
前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定手段と、
前記推定手段で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援手段による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援手段による歩行支援を停止する歩行支援制御手段と、
を具備したことを特徴とする歩行支援装置。
Walking support means for supporting walking by controlling the movement of the foot part of the walking support target;
A moving walking surface detection means for detecting a walking surface that exists in front of the walking support target and moves in the forward direction of the walking support target;
Estimating means for estimating whether or not the walking support target person walks on the moving walking surface;
When it is estimated by the estimation means that the walking support target person walks, the walking support by the walking support means is continued, and when it is estimated that the walking support target person does not walk, the walking support Walking support control means for stopping walking support by means;
A walking support device characterized by comprising:
前記歩行支援対象者が前記移動する歩行面に対して左右何れの側に位置するかを検出する位置検出手段を具備し、
前記推定手段は、前記検出した位置に基づいて前記歩行支援対象者が歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置。
Comprising position detecting means for detecting whether the walking support target person is located on the left or right side with respect to the moving walking surface;
The walking support apparatus according to claim 1, wherein the estimation unit estimates whether or not the walking support target person walks based on the detected position.
前記歩行支援対象者が存在する現在地域を取得する地域取得手段を具備し、
前記推定手段は、取得した地域に基づいて前記歩行支援対象者が歩行する側と歩行しない側を判断することを特徴とする請求項2に記載の歩行支援装置。
Comprising region acquisition means for acquiring a current region where the walking support target person exists,
The walking support device according to claim 2, wherein the estimation unit determines a side on which the walking support target person walks and a side on which the walking support target person does not walk based on the acquired area.
前記歩行支援対象者の移動スケジュールを取得する移動スケジュール取得手段と、
前記取得した移動スケジュールに対する現在の遅れを取得する遅れ取得手段と、
を具備し、
前記推定手段は、前記取得した遅れが所定量以上の場合には、前記歩行支援対象者が歩行し、前記取得した遅れが所定量未満の場合には、前記歩行支援対象者が歩行しないと推定することを特徴とする請求項1に記載の歩行支援装置。
A movement schedule acquisition means for acquiring a movement schedule of the walking support target person;
Delay acquisition means for acquiring a current delay with respect to the acquired movement schedule;
Comprising
The estimation means estimates that the walking support target person walks when the acquired delay is greater than or equal to a predetermined amount, and that the walking support target person does not walk when the acquired delay is less than the predetermined amount. The walking support device according to claim 1, wherein:
前記歩行支援対象者の前記足部の加速度を取得する加速度取得手段を具備し、
前記推定手段は、前記歩行支援対象者が固定された歩行面を歩行する際の前記足部の加速度と前記移動する歩行面に乗車する際の前記足部の加速度を前記加速度取得手段で取得して比較することにより、前記歩行支援対象者が前記歩行面で歩行するか否かを推定することを特徴とする請求項1に記載の歩行支援装置。
Comprising acceleration acquisition means for acquiring acceleration of the foot part of the walking support target person,
The estimation means acquires the acceleration of the foot when the walking support target person walks on a fixed walking surface and the acceleration of the foot when getting on the moving walking surface by the acceleration acquisition means. The walking support device according to claim 1, wherein the walking support target person estimates whether or not the walking support target person walks on the walking surface.
歩行支援対象者の足部の動きを制御して歩行を支援する歩行支援機能と、
前記歩行支援対象者の前方に存在し、前記歩行支援対象者の前進方向に移動する歩行面を検出する移動歩行面検出機能と、
前記歩行支援対象者が前記移動する歩行面で歩行するか否かを推定する推定機能と、
前記推定機能で、前記歩行支援対象者が歩行すると推定された場合には、前記歩行支援機能による歩行支援を継続し、前記歩行支援対象者が歩行しないと推定された場合には、前記歩行支援機能による歩行支援を停止する歩行支援制御機能と、
をコンピュータで実現する歩行支援プログラム。
A walking support function that supports the walking by controlling the movement of the foot of the walking support target person,
A moving walking surface detection function for detecting a walking surface that exists in front of the walking support target and moves in the forward direction of the walking support target;
An estimation function for estimating whether or not the walking support target walks on the moving walking surface;
When it is estimated by the estimation function that the walking support target person walks, the walking support by the walking support function is continued, and when it is estimated that the walking support target person does not walk, the walking support Walking support control function to stop walking support by function,
A walking support program that uses a computer.
JP2010265191A 2010-11-29 2010-11-29 Walking support device, and walking support program Pending JP2012115312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265191A JP2012115312A (en) 2010-11-29 2010-11-29 Walking support device, and walking support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265191A JP2012115312A (en) 2010-11-29 2010-11-29 Walking support device, and walking support program

Publications (1)

Publication Number Publication Date
JP2012115312A true JP2012115312A (en) 2012-06-21

Family

ID=46498939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265191A Pending JP2012115312A (en) 2010-11-29 2010-11-29 Walking support device, and walking support program

Country Status (1)

Country Link
JP (1) JP2012115312A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Mobile training support device
US9655805B2 (en) 2014-01-15 2017-05-23 Samsung Electronics Co., Ltd. Walking assist robot and control method thereof
CN106956271A (en) * 2017-02-27 2017-07-18 华为技术有限公司 Predict the method and robot of affective state
EP3894969A4 (en) * 2018-12-11 2022-08-24 Brain Corporation ESCALATOR DETECTION SYSTEMS, APPARATUS AND METHODS

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9655805B2 (en) 2014-01-15 2017-05-23 Samsung Electronics Co., Ltd. Walking assist robot and control method thereof
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Mobile training support device
CN106956271A (en) * 2017-02-27 2017-07-18 华为技术有限公司 Predict the method and robot of affective state
CN106956271B (en) * 2017-02-27 2019-11-05 华为技术有限公司 Predict the method and robot of affective state
US11670324B2 (en) 2017-02-27 2023-06-06 Huawei Technologies Co., Ltd. Method for predicting emotion status and robot
EP3894969A4 (en) * 2018-12-11 2022-08-24 Brain Corporation ESCALATOR DETECTION SYSTEMS, APPARATUS AND METHODS

Similar Documents

Publication Publication Date Title
CN104635732B (en) Auxiliary walking robot and control method thereof
JP4735676B2 (en) Driving support device
CN112261971B (en) Gait control mobility device
KR20150085212A (en) Walking assist robot and control method for the same
JP6799789B2 (en) Walking support robot and walking support method
JP7375456B2 (en) Toe position estimation device and fingertip position estimation device
JP6892393B2 (en) A foot contact position follower, a method of controlling its movement, a computer-executable program, and a computer-readable non-temporary information recording medium containing it.
KR20130073743A (en) Active walking aids and standing aids, and active walking aids and standing aids
JP2012115312A (en) Walking support device, and walking support program
JP2012200318A (en) Walking assist device and walking assist program
CN108618940A (en) Walking auxiliary robot and walking householder method
JP2012200319A (en) Walking support device, and walking support program
JP2012115314A (en) Walking support device and walking support program
RU2758170C1 (en) Method for controlling passenger's posture and device for controlling passenger's posture
US12064390B2 (en) Powered walking assistant and associated systems and methods
JP5610294B2 (en) Walking support device and walking support program
JP2012205826A (en) Walking support device and program therefor
JP2012115313A (en) Walking support device, and walking support program
JP2012117833A (en) Image recognition device, mounting type robot, and image recognition program
JP2012115311A (en) Walking device and walking program
JP2013048701A (en) Walking support device and walking support program
JP2013075044A (en) Stumble detector, walking aid, and stumble detection method
JP6333059B2 (en) Walking support device and fall prevention method using the same
JP6206668B2 (en) Pedestrian detection device for vehicles
JP2013208291A (en) Walking assistance device and walking assistance program