[go: up one dir, main page]

JP2006123014A - Inverted two-wheeled robot - Google Patents

Inverted two-wheeled robot Download PDF

Info

Publication number
JP2006123014A
JP2006123014A JP2004310885A JP2004310885A JP2006123014A JP 2006123014 A JP2006123014 A JP 2006123014A JP 2004310885 A JP2004310885 A JP 2004310885A JP 2004310885 A JP2004310885 A JP 2004310885A JP 2006123014 A JP2006123014 A JP 2006123014A
Authority
JP
Japan
Prior art keywords
mode
robot
follow
posture
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004310885A
Other languages
Japanese (ja)
Inventor
Masaki Yamamoto
正樹 山本
Yuji Adachi
勇治 足達
Yasunao Okazaki
安直 岡▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004310885A priority Critical patent/JP2006123014A/en
Publication of JP2006123014A publication Critical patent/JP2006123014A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】 姿勢変化に対する機体のコンプライアンスを積極的に利用して自律的動作を引き起こすための直感的なインターフェースを実現することができる倒立2輪走行ロボットを提供する。
【解決手段】 不安定な機体3と、姿勢センサ4と、姿勢を保持する力を発生するアクチュエータ2a,2bと、姿勢を安定化する姿勢制御部7と、上記姿勢センサの変化から人間の意図を判定する姿勢変動検出部13と、姿勢変動検出部13の出力から動作モードを決定する動作制御部9を有する。
【選択図】図2
PROBLEM TO BE SOLVED: To provide an inverted two-wheeled traveling robot capable of realizing an intuitive interface for causing autonomous operation by positively utilizing the compliance of an aircraft with respect to posture change.
An unstable body 3, a posture sensor 4, actuators 2 a and 2 b that generate a posture-holding force, a posture control unit 7 that stabilizes the posture, and human intentions based on changes in the posture sensor. And a motion control unit 9 that determines an operation mode from the output of the motion variation detection unit 13.
[Selection] Figure 2

Description

本発明は、人間と共存しながら作業を行うロボットのうち、本来不安定な機体を制御の力によってバランスするタイプのロボットに対して、人間にとって直感的でわかりやすい動作指示インターフェースを実現する倒立2輪走行ロボットに関するものである。   The present invention is an inverted two-wheeled vehicle that realizes an intuitive and easy-to-understand operation instruction interface for humans, among robots that work in coexistence with humans and that balance the originally unstable aircraft by the power of control. It relates to a traveling robot.

従来の不安定な機体を制御によってバランスを取る人間と共存する自動機械としては、米国で開発された同軸2輪タイプの乗り物Segway(登録商標)が有名である。その基本構成を図16に示す。なお、図16は特許文献1に記載されている。   As a conventional automatic machine coexisting with a human who balances an unstable airframe by control, a coaxial two-wheel vehicle Segway (registered trademark) developed in the United States is famous. The basic configuration is shown in FIG. FIG. 16 is described in Patent Document 1.

図16において、車輪100a,100bをフレーム102で連結し、そのフレームにDCサーボモータ104a,104bを固定して車輪を駆動する様に車両を構成するようにしている。フレーム102にはステム106を介してハンドルバー108が取着される。またフレーム102上の適宜位置にはボックス110が儲けられ、その内部には傾斜センサと制御ユニット(共に図示せず)が収納される。尚、ハンドルバー108のグリップにはスイッチ112a,112bが設けられ、例えばスイッチ112aをオンすることによりDCサーボモータ104aが停止した右旋回する様に構成される。   In FIG. 16, wheels 100a and 100b are connected by a frame 102, and DC servomotors 104a and 104b are fixed to the frame to drive the wheels. A handle bar 108 is attached to the frame 102 via a stem 106. A box 110 is provided at an appropriate position on the frame 102, and an inclination sensor and a control unit (both not shown) are accommodated therein. Note that switches 112a and 112b are provided on the grip of the handle bar 108, and for example, the DC servo motor 104a is turned to the right when the switch 112a is turned on.

フレーム102には図示しない人間がハンドルレバー108を握る形で乗車する。図示しない制御ユニットはボックス110から検出されるフレーム102の傾斜を基に、傾斜がゼロになるようモータ104a,104bにフィードバック制御を行う。人間がフレーム102上で所望の前後方向に体重移動をさせると、ボックス110が行っているバランス制御とあいまって、その方向に車両を走行させることができる。   A person (not shown) rides on the frame 102 while holding the handle lever 108. A control unit (not shown) performs feedback control on the motors 104a and 104b based on the inclination of the frame 102 detected from the box 110 so that the inclination becomes zero. When a person moves his / her body weight on the frame 102 in a desired front-rear direction, the vehicle can travel in that direction along with the balance control performed by the box 110.

図17において、ロボット210は主として子供とのコミュニケーションを図ることを目的に開発されたコミュニケーションロボットで、音声等によるコミュニケーションの他に、接触や抱きつきなどのボディコミュニケーションが可能であるように意図されている。ロボット210は、同軸上に取り付けられた2つの車輪218a及び218bを制御することによって、ロボット210本体の転倒を防いでいる。さらに、子供とのコミュニケーションにおける接触等による突発的な外力による転倒を防ぐために、腰関節228とこれを駆動する腰モータ256を有している。この腰関節228の動作は、たとえば胸部232、240aの表面に取り付けられている図示しない衝突センサが接触を検出した時、押された方向に腰関節228を動かすことによって、力を逃がす動作を行うことができる。また、腰関節228と胸部関節262をリンク264で連結することにより、1つの腰モータ256により双方の関節を動かし、逃げる動作をより大きくとることが可能となっている。以上のように、車輪218a,218bによるバランス制御と腰関節228,胸部関節262による逃げる動作の組み合わせにより、接触・衝突に対してもロバストな倒立制御を実現し、コミュニケーションをとる子供との安全な共存を可能としている。   In FIG. 17, a robot 210 is a communication robot that was developed mainly for the purpose of communicating with children, and is intended to be able to perform body communication such as contact and hugging in addition to communication by voice or the like. . The robot 210 prevents the robot 210 body from overturning by controlling the two wheels 218a and 218b mounted on the same axis. Furthermore, in order to prevent a fall due to an unexpected external force due to contact or the like in communication with a child, a hip joint 228 and a hip motor 256 that drives the hip joint 228 are provided. For example, when the collision sensor (not shown) attached to the surfaces of the chests 232 and 240a detects contact, the waist joint 228 moves the waist joint 228 in the pushed direction to release the force. be able to. Further, by connecting the waist joint 228 and the chest joint 262 with the link 264, it is possible to move both joints by one waist motor 256 and to take a larger escape operation. As described above, the combination of the balance control by the wheels 218a and 218b and the escape operation by the hip joint 228 and the chest joint 262 realizes an inversion control that is robust against contact and collision, and is safe for children who communicate with each other. Coexistence is possible.

特許第3070015号公報(第23図)Japanese Patent No. 3070015 (FIG. 23) 特開2003−271243公報(第3図)Japanese Patent Laid-Open No. 2003-271243 (FIG. 3)

しかしながら、上記従来の構成では、制御によってバランスをとるロボットや自動機器に対する、人間にとって直感的でわかりやすい動作指示インターフェースを実現することはできないという課題を有していた。   However, the above-described conventional configuration has a problem that it is impossible to realize an operation instruction interface that is intuitive and easy to understand for humans to robots and automatic devices that are balanced by control.

つまり、特許文献1においては、人間が体重移動することで前後への移動を制御できるという意味では自動車のアクセルと同様に直感的であるが、人間は常に体重を所望の方向にかけ続ける必要があり、本乗り物は指示を受けて自律的に動作したとは言えない。   That is, in Patent Document 1, it is as intuitive as an automobile accelerator in the sense that a person can control the movement back and forth by moving his / her weight, but he / she must always keep his / her weight in a desired direction. This vehicle cannot be said to have operated autonomously upon receiving instructions.

また、特許文献2においては、子供のロボットへの接触が引き金となって、ロボットの上体の逃げる動作を引き起こしているが、ロボットが反射的に動作を起こしたにすぎず、接触が取り除かれれば再び元の状態に戻り、ロボットが動作指示を受けて自律的に動作を起こしたとは言い難い。   Also, in Patent Document 2, the child's contact with the robot causes the movement of the upper body of the robot to escape, but the robot is merely reflexively operated and the contact is removed. It is hard to say that the robot has returned to its original state again and has autonomously moved upon receiving a motion instruction.

本発明は、上記従来の課題を解決するもので、本来不安定な機体を制御の力によってバランスするタイプのロボットに対して、人間にとって直感的でわかりやすい動作指示インターフェースを実現する。このため、ロボットがバランスを取ろうとすることに起因する姿勢保持方向のコンプライアンスを利用することにより、人間がロボットに対して働きかける力を姿勢の変化としてとらえ、この変化パターンから人間の意図をよみ取る。   The present invention solves the above-described conventional problems, and realizes an operation instruction interface that is intuitive and easy to understand for humans with respect to a robot of a type that balances an originally unstable body by the power of control. For this reason, by using compliance in the posture holding direction caused by the robot trying to balance, the force that the human acts on the robot is regarded as a change in posture, and the intention of the human is read out from this change pattern .

従って、本発明は、姿勢を変化させる人間の動作指示に対して、自律的な動作を起こすような倒立2輪走行ロボットを提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an inverted two-wheeled robot that causes an autonomous operation in response to a human motion instruction that changes posture.

上記目的を達成するために、本発明は以下のように構成する。   In order to achieve the above object, the present invention is configured as follows.

上記従来の課題を解決するために、本発明の1つの態様によれば、同軸上に配置されて2つの車軸にそれぞれ連結された2つの車輪と、上記2つの車軸を回転可能に支持する車体を有する機体と、
上記機体の姿勢を検出する姿勢センサと、
上記2つの車軸をそれぞれ回転駆動して上記機体の上記姿勢を保持する力を発生させるアクチュエータと、
上記機体の上記姿勢を安定化させるように上記アクチュエータを動作制御する姿勢制御部と、
上記姿勢センサからの上記機体の経時的な姿勢変化に基づいて上記人間の意図を判定する判定部と、
上記判定部の出力から動作モードを変更する動作制御部とを有することを特徴とする倒立2輪走行ロボットを提供する。よって、この構成では、人間がロボットに対して働きかける力をロボットの姿勢の変化として捉え、この変化パターンから人間の意図を読み取り自律的な動作を行うことができる。
In order to solve the above-mentioned conventional problems, according to one aspect of the present invention, two wheels arranged coaxially and respectively connected to two axles, and a vehicle body that rotatably supports the two axles. A fuselage having
An attitude sensor for detecting the attitude of the aircraft,
An actuator for driving each of the two axles to generate a force for maintaining the posture of the airframe;
An attitude control unit for controlling the operation of the actuator so as to stabilize the attitude of the airframe;
A determination unit for determining the human intention based on a change in posture of the aircraft over time from the posture sensor;
An inverted two-wheeled robot having an operation control unit that changes an operation mode based on an output of the determination unit is provided. Therefore, in this configuration, it is possible to recognize the force acting on the robot by the human as a change in the posture of the robot, read the human intention from the change pattern, and perform an autonomous operation.

本構成によって、人間にとって直感的でわかりやすい自律ロボットに対する動作指示インターフェースを実現することができる。   With this configuration, it is possible to realize an operation instruction interface for an autonomous robot that is intuitive and easy to understand for humans.

本発明の倒立2輪走行ロボットによれば、制御により姿勢を維持しようとすることに起因するコンプライアンスを利用して、人間が力をかけて姿勢を変化させることで動作指示を与えることが可能となる。たとえば、ロボットに対して、「背中を押してスタートさせる」又は「胸を押して停止させる」といった人間が日常の習慣から理解しやすい動作指示を実現することが可能となる。これは、従来発明にあったような、機器のアクセルを踏み続けて動作させる(従来例1)、あるいは、人間が与える力に対して反射的な動作を取らせる(従来例2)、といった受動的な動作ではない、自律的な動作を直感的にわかりやすい方法で簡易に指示するインターフェースを実現するものである。   According to the inverted two-wheeled traveling robot of the present invention, it is possible to give an operation instruction by changing the posture by applying a force by utilizing compliance due to maintaining the posture by control. Become. For example, it is possible to realize an operation instruction that is easy for a human to understand from daily habits, such as “start by pressing the back” or “stop by pressing the chest”. This is passive, such as in the conventional invention, by continuously stepping on the accelerator of the device (conventional example 1), or taking a reflective action with respect to the force applied by humans (conventional example 2). This is to realize an interface that simply instructs an autonomous operation, which is not a typical operation, in an intuitive and easy-to-understand manner.

以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する前に、本発明の種々の態様について説明する。   Before describing embodiments of the present invention in detail based on the drawings, various aspects of the present invention will be described below.

本発明の第1態様によれば、同軸上に配置されて2つの車軸にそれぞれ連結された2つの車輪と、上記2つの車軸を回転可能に支持する車体を有する機体と、
上記機体の姿勢を検出する姿勢センサと、
上記2つの車軸をそれぞれ回転駆動して上記機体の上記姿勢を保持する力を発生させるアクチュエータと、
上記機体の上記姿勢を安定化させるように上記アクチュエータを動作制御する姿勢制御部と、
上記姿勢センサからの上記機体の経時的な姿勢変化に基づいて上記人間の意図を判定する判定部と、
上記判定部の出力から動作モードを変更する動作制御部とを有することを特徴とする倒立2輪走行ロボットを提供する。
According to the first aspect of the present invention, two wheels disposed coaxially and respectively connected to two axles, and an airframe having a vehicle body that rotatably supports the two axles,
An attitude sensor for detecting the attitude of the aircraft,
An actuator for driving each of the two axles to generate a force for maintaining the posture of the airframe;
An attitude control unit for controlling the operation of the actuator so as to stabilize the attitude of the airframe;
A determination unit for determining the human intention based on a change in posture of the aircraft over time from the posture sensor;
An inverted two-wheeled robot having an operation control unit that changes an operation mode based on an output of the determination unit is provided.

本発明の第2態様によれば、上記動作制御部で変更する上記動作モードは、走行開始のために待機する待機モード、上記人間に追従して走行する追従モード、上記走行を停止する停止モードを含むことを特徴とする第1の態様に記載の倒立2輪走行ロボットを提供する。   According to the second aspect of the present invention, the operation mode changed by the operation control unit includes a standby mode for waiting for the start of travel, a follow-up mode for traveling following the human, and a stop mode for stopping the travel. The inverted two-wheeled traveling robot according to the first aspect is provided.

本発明の第3態様によれば、上記判定部が、上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えれば上記人間の意図であると判定し、上記閾値以下ならば上記人間の意図ではないと判定するとともに、上記判定部が上記人間の意図であると判定したときのみ上記動作制御部で上記動作モードを変更することを特徴とする第1又は2の態様に記載の倒立2輪走行ロボットを提供する。   According to the third aspect of the present invention, the determination unit determines that the intention of the human body is present if the temporal posture change of the aircraft from the posture sensor exceeds a threshold value, and if it is equal to or less than the threshold value, the human body is determined. The inversion according to the first or second aspect, wherein the operation mode is changed by the operation control unit only when the determination unit determines that the intention is not human intention and the operation control unit determines that the intention is the human intention. A two-wheeled robot is provided.

本発明の第4態様によれば、上記動作モードは、上記ロボットの周囲の状況を検出して検出結果を上記動作制御部に入力する周囲状況検出センサをさらに備え、
上記周囲状況検出センサによる検出結果に基づき、追従可能か否かを判断し、追従可能なときのみ追従動作を行い、追従不可のときは停止する追従モードを上記動作モードとして有することを特徴とする第1〜3のいずれか1つの態様に記載の倒立2輪走行ロボットを提供する。
According to a fourth aspect of the present invention, the operation mode further includes an ambient condition detection sensor that detects an ambient condition of the robot and inputs a detection result to the motion control unit.
Based on the detection result of the ambient condition detection sensor, it is determined whether or not the follow-up is possible, and the follow-up operation is performed only when the follow-up is possible and stopped when the follow-up is impossible. An inverted two-wheeled traveling robot according to any one of the first to third aspects is provided.

本発明の第5態様によれば、荷物を検出する物体検出センサをさらに備え、
上記動作制御部は、上記物体検出センサによる検出結果に基づき、上記動作モードを、荷物載置のために待機する待機モード中では上記待機モードから荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモードに切り替えるとともに、上記人間に追従して走行する追従モード中では上記追従モードから荷下ろしのために待機する荷下ろし待ちモードに切り替えることを特徴とする第1〜4のいずれか1つの態様に記載の倒立2輪走行ロボットを提供する。
According to the fifth aspect of the present invention, the apparatus further comprises an object detection sensor for detecting a load,
Based on the detection result of the object detection sensor, the operation control unit is configured to start the travel following the human after the load mode is loaded from the standby mode in the standby mode for waiting for the load. The first to fourth aspects are characterized by switching to a follow-up start waiting mode for waiting for an instruction and switching from the follow-up mode to an unloading wait mode for waiting for unloading in the follow-up mode in which the vehicle follows the human. An inverted two-wheeled traveling robot according to any one aspect is provided.

本発明の第6態様によれば、上記動作制御部で変更する上記動作モードは、荷物載置のために待機する待機モード、荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモード、上記人間に追従して走行する追従モード、上記走行を停止して荷下ろしのために待機する荷下ろし待ちモードを含み、
上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えたと上記判定部で判断すれば、上記待機モード、上記追従開始待ちモード、上記追従モード、上記荷下ろし待ちモード、上記待機モードの順に上記動作制御部で上記動作モードを変更することを特徴とする第1の態様に記載の倒立2輪走行ロボットを提供する。
According to the sixth aspect of the present invention, the operation mode to be changed by the operation control unit includes a standby mode for waiting for the loading of the load, and a tracking for waiting for a travel start instruction following the person after the loading of the load. Including a start waiting mode, a follow-up mode for following the person, and an unloading waiting mode for stopping the running and waiting for unloading,
If the determination unit determines that the change in posture of the aircraft over time from the posture sensor has exceeded a threshold, the standby mode, the follow-up start waiting mode, the follow-up mode, the unloading wait mode, and the standby mode The inverted two-wheel traveling robot according to the first aspect is provided in which the operation mode is changed in order by the operation control unit.

本発明の第7態様によれば、上記動作制御部で変更する上記動作モードは、荷物載置のために待機する待機モード、荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモード、上記人間に追従して走行する追従モード、上記走行を停止して荷下ろしのために待機する荷下ろし待ちモードを含み、
上記物体検出センサにより上記物体を検出した場合には、上記待機モードから上記追従開始待ちモードに上記動作制御部で上記動作モードを変更する一方、上記物体検出センサにより上記物体が無くなったことを検出した場合には、上記荷下ろし待ちモードから上記待機モード上記動作制御部で上記動作モードを変更し、
上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えたと上記判定部で判断すれば、上記追従開始待ちモードにおいては上記追従開始待ちモードから上記追従モードに上記動作制御部で上記動作モードを変更する一方、上記追従モードにおいては上記追従モードから上記荷下ろし待ちモードに上記動作制御部で上記動作モードを変更することを特徴とする第5の態様に記載の倒立2輪走行ロボットを提供する。
According to the seventh aspect of the present invention, the operation mode to be changed by the operation control unit includes a standby mode for waiting for the loading of the load, and a tracking for waiting for a travel start instruction following the human after the loading of the load. Including a start waiting mode, a follow-up mode for following the person, and an unloading waiting mode for stopping the running and waiting for unloading,
When the object is detected by the object detection sensor, the operation control unit changes the operation mode from the standby mode to the follow-up start waiting mode, while the object detection sensor detects that the object has disappeared. In that case, the operation mode is changed by the operation control unit in the standby mode from the unloading standby mode,
If the determination unit determines that the change in posture of the aircraft over time from the posture sensor has exceeded a threshold value, the operation control unit moves from the follow-up start wait mode to the follow-up mode in the follow-up start wait mode. The inverted two-wheeled robot according to the fifth aspect, wherein the operation mode is changed by the operation control unit from the following mode to the unloading waiting mode in the following mode while the mode is changed. provide.

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1実施形態)
図1Aは本発明の第1実施形態における自律ロボットの一例としての倒立2輪走行ロボット67の側面図である。図1A,図1B,図1Cにおいて、1a,1bは同軸上に配置されて2つの車軸2c,2dにそれぞれ連結された2つの車輪、2a,2bは2つの車軸2c,2dにそれぞれ連結されて2つの車輪1a,1bをそれぞれ独立して回転駆動してロボット67を走行させるとともに機体3の姿勢を所定の姿勢(図1Bや図6(a)のような起立姿勢)に保持するための、アクチュエータの一例としての2つのモータ、3は車軸2c,2dの軸回りに回動可能に車軸2c,2dに支持されてモータ2a,2bを保持する機体、4は機体3の姿勢を検出する姿勢センサである。
(First embodiment)
FIG. 1A is a side view of an inverted two-wheeled traveling robot 67 as an example of an autonomous robot in the first embodiment of the present invention. In FIG. 1A, FIG. 1B, and FIG. 1C, 1a and 1b are coaxially arranged, and two wheels connected to two axles 2c and 2d, respectively, 2a and 2b are connected to two axles 2c and 2d, respectively. The two wheels 1a and 1b are driven to rotate independently to run the robot 67 and maintain the posture of the airframe 3 in a predetermined posture (standing posture as shown in FIG. 1B and FIG. 6A). As an example of the actuator, two motors 3 are supported on the axles 2c and 2d so as to be rotatable around the axles 2c and 2d, and a body for holding the motors 2a and 2b, and 4 is an attitude for detecting the attitude of the aircraft 3 It is a sensor.

また、このロボット67は荷物運びをタスクとするため、荷台5を機体3の一部として有している。なお、29は荷台5上の荷物である。なお、15は動作指示を与えようとしている人間(ユーザ)であり、ロボット67に対して接触することで動作指示を与える。さらに、本ロボット67はユーザ15に追従して荷物運びをするためにユーザ15の位置を検出して制御部100(詳しくは後述する動作制御部9)に検出結果を出力する、周囲状況検出センサの一例としての人間検出センサ6も、例えば、機体3の上部に有している。この人間検出センサ6は、ユーザ15の位置以外にも、ロボット67の周囲の物体、例えば走行時に障害となる障害物や他の人間などの物体を検出するようにしてもよい。ただし、障害物を検出した場合には、動作制御部9により、障害物を避けるようにモータ2a,2bを動作制御してロボット67が障害物を避けるように走行させるか、障害物を避けられない場合には障害物にロボット67が接触する前にロボット67の走行を停止するようにモータ2a,2bを動作制御することができる。すなわち、上記人間検出センサ6による検出結果に基づき、追従可能か否かを判断し、追従可能なときのみ追従動作を行い、追従不可のときは停止する追従モードを持つことができる。   Further, the robot 67 has a cargo bed 5 as a part of the airframe 3 in order to carry luggage. Reference numeral 29 denotes a load on the loading platform 5. Reference numeral 15 denotes a human (user) who is giving an operation instruction, and gives an operation instruction by touching the robot 67. Further, the robot 67 detects the position of the user 15 in order to carry the baggage following the user 15 and outputs a detection result to the control unit 100 (the operation control unit 9 described later in detail). A human detection sensor 6 as an example is also provided on the upper part of the body 3, for example. In addition to the position of the user 15, the human detection sensor 6 may detect an object around the robot 67, for example, an obstacle such as an obstacle or other human beings when traveling. However, when an obstacle is detected, the operation control unit 9 can control the motors 2a and 2b so as to avoid the obstacle so that the robot 67 can travel to avoid the obstacle, or the obstacle can be avoided. If not, the motors 2a and 2b can be controlled so as to stop the running of the robot 67 before the robot 67 comes into contact with the obstacle. That is, it is possible to have a follow-up mode in which it is determined whether or not follow-up is possible based on the detection result of the human detection sensor 6 and the follow-up operation is performed only when follow-up is possible and stopped when follow-up is impossible.

ここで、人間検出センサ6の例としては、超音波を用いたものが信頼性が高く頻繁に用いられる。人間に超音波と赤外線の発振器を持たせ、人間検出センサ6として2つの超音波マイクと赤外線受光素子を設けることにより(受信器)、2つの超音波マイクに超音波が到達する時間差から人間の位置(発信器の位置)を測定することが可能である。このような原理を応用した商品としては、例えば米国Virtual Ink Corporation社のmimio(登録商標)がある。この商品は、ホワイトボードに受信器を、ホワイトボード用ペンに発信器を取り付けることにより、ペンの位置を非接触で検出し、ユーザがホワイトボードに書いた字や絵をリアルタイムでパソコンに取り込める商品である。   Here, as an example of the human detection sensor 6, one using ultrasonic waves is frequently used with high reliability. By providing a human with an ultrasonic and infrared oscillator and providing two ultrasonic microphones and an infrared light receiving element as the human detection sensor 6 (receiver), the human wave is detected from the time difference between the ultrasonic waves reaching the two ultrasonic microphones. It is possible to measure the position (transmitter position). An example of a product that applies such a principle is mimio (registered trademark) of Virtual Ink Corporation of the United States. In this product, a receiver is attached to the whiteboard, and a transmitter is attached to the whiteboard pen, so that the position of the pen can be detected in a non-contact manner, and the characters and pictures written on the whiteboard by the user can be imported to the PC in real time. It is.

人間検出センサ6には電波を用いることも可能である。その場合は、株式会社国際電気通信基礎技術研究所(ATR)で開発されたエスパーアンテナ(登録商標)のように、電波の到来方向を検出できるものが有効である。この場合、人間は電波の発信機を持つことになる。   The human detection sensor 6 can also use radio waves. In that case, it is effective to detect the direction of arrival of radio waves, such as the Esper Antenna (registered trademark) developed at the International Telecommunications Research Institute (ATR). In this case, a human has a radio wave transmitter.

人間検出センサ6の他の例として、カメラ画像の画像認識を用いたもの、遠赤外線カメラの熱線画像を用いたもの、などがある。   Other examples of the human detection sensor 6 include those using image recognition of a camera image and those using a heat ray image of a far infrared camera.

また、ロボット67の周囲の物体を検出するセンサとしては、独SICK社のレーザスキャナ式エリアセンサがよく用いられる。このセンサはレーザを平面スキャンすることにより、光を反射する物体までの距離を求めるもので、障害物のロボットとの相対位置関係が平面的に把握できる。   As a sensor for detecting an object around the robot 67, a laser scanner type area sensor of SICK, Germany is often used. This sensor obtains the distance to an object that reflects light by scanning the laser plane, and the relative positional relationship between the obstacle and the robot can be grasped in a plane.

また、荷台5上に荷物29などの物体が載せられたか否かは、荷台5上に荷物29が載せられると機体3の姿勢が変化し、その変化を姿勢センサ4により検出することにより、荷物29の荷台5への載置を検出することができるようにしている。しかしながら、荷台5上の物体の存在をより正確に検出するため、物体検出センサの一例としての近接センサ70a,70bを備えるようにしてもよく、その場合には、近接センサ70a,70bの検出結果は制御部100に入力される。物体検出センサとしては、荷台5上の物体の重量を検出する重量センサや、荷台5上の物体を光学的に検出する光学センサや、荷台5上に物体が載置されると、機械的なスイッチがオンする接触式センサなど種々のセンサを使用することができる。   Whether or not an object such as a luggage 29 is placed on the loading platform 5 is determined by detecting the change of the attitude of the fuselage 3 by the attitude sensor 4 when the luggage 29 is placed on the loading platform 5. 29 can be detected on the loading platform 5. However, in order to more accurately detect the presence of an object on the loading platform 5, proximity sensors 70a and 70b as examples of object detection sensors may be provided. In that case, the detection results of the proximity sensors 70a and 70b are provided. Is input to the control unit 100. As the object detection sensor, a weight sensor that detects the weight of the object on the loading platform 5, an optical sensor that optically detects an object on the loading platform 5, and a mechanical object when the object is placed on the loading platform 5 are used. Various sensors can be used, such as contact sensors that turn on.

姿勢センサ4の一例としてジャイロ・加速度センサが用いられ、重力方向を姿勢センサ4により検出することにより、重力方向に対する機体3の姿勢を検出して、上記倒立2輪走行ロボット67の走行動作などの制御を行う制御部100に検出結果を出力する。検出された姿勢に基づき、制御部100がモータ2a,2bに対して適切なトルク指令を与えて、機体3のバランスを維持して、機体3が所定の姿勢(図1Bや図6(a)のような起立姿勢)を維持するように調整する。   As an example of the attitude sensor 4, a gyro / acceleration sensor is used. By detecting the direction of gravity by the attitude sensor 4, the attitude of the airframe 3 is detected with respect to the direction of gravity, and the traveling operation of the inverted two-wheeled traveling robot 67 and the like. The detection result is output to the control unit 100 that performs control. Based on the detected posture, the control unit 100 gives an appropriate torque command to the motors 2a and 2b to maintain the balance of the airframe 3, so that the airframe 3 has a predetermined posture (FIG. 1B or FIG. 6A). To maintain a standing posture).

図2は本発明の第1実施形態における倒立2輪走行ロボット67の制御系ブロック図である。図2において、3は倒立2輪走行ロボット67の機体、2a,2bは倒立2輪走行ロボット67の2つの車輪1a,1bを回転駆動するためのモータ、4は機体3の姿勢を検出するための姿勢センサである。図2において、機体3に対しては、姿勢センサ4と状況検出センサ6と荷物センサ70a、70bと荷重センサ82とが設けられ、さらに、エンコーダ2e、2fも設けられている。このエンコーダ2e、2fは、車輪の回転角及び回転角速度を検出するためのセンサである。エンコーダ2e、2fの出力は制御ループ8を介して制御器7にフィードバックされる。機体3から姿勢センサ4及びエンコーダ2e、2fへ伝達される情報は、「機械的な運動」であり、モータ2a、2bから機体3に対して与えられたトルクに対して機体3が応答した結果である。   FIG. 2 is a control system block diagram of the inverted two-wheeled traveling robot 67 in the first embodiment of the present invention. In FIG. 2, 3 is the body of the inverted two-wheeled traveling robot 67, 2 a and 2 b are motors for rotationally driving the two wheels 1 a and 1 b of the inverted two-wheeled traveling robot 67, and 4 is for detecting the attitude of the body 3. This is a posture sensor. In FIG. 2, an attitude sensor 4, a situation detection sensor 6, luggage sensors 70a and 70b, and a load sensor 82 are provided for the body 3, and encoders 2e and 2f are also provided. The encoders 2e and 2f are sensors for detecting the rotation angle and rotation angular velocity of the wheel. The outputs of the encoders 2e and 2f are fed back to the controller 7 via the control loop 8. The information transmitted from the body 3 to the attitude sensor 4 and the encoders 2e and 2f is “mechanical motion”, and the result of the body 3 responding to the torque applied to the body 3 from the motors 2a and 2b. It is.

制御部100は、姿勢センサ4の出力が入力される、判定部の一例として機能する姿勢変動検出部13と、姿勢変動検出部13に動作モード11を出力するとともに姿勢変動検出部13から変動検出信号12が入力される動作制御部9と、動作制御部9から動作指令10が入力されるとともに姿勢センサ4の出力も入力される、姿勢制御部の一例として機能する制御器7とより構成されている。よって、姿勢センサ4の出力はフィードバックされて制御器7を介して、モータ2a,2bへのトルク入力となる。以上の制御ループ8により、ロボット67は倒立姿勢を維持することができる。9は動作制御部で、あらかじめタスクに応じて用意されかつ動作シナリオ用データベース14Aに記憶された動作シナリオ14を基に、ロボット67がどのように動くべきか(具体的には、どのような動作モードで動くべきか)を決定し、動作指令10を、制御ループ8に与える。動作指令10の指令値として、図1Aに示すロボット67の場合、左右車輪1a,1bの回転速度を用いることができるし、また、左右車輪1a,1bの回転速度の差又は平均に相当する並進速度又は回転速度を指令値として用いることもできる。姿勢センサ4の出力は姿勢変動検出部13に入力され、ここで、ロボット67の動作制御部9から与えられる動作モード11に対応する、あらかじめ定められた判定アルゴリズムにより姿勢変動が検出された場合、変動検出信号12を動作制御部9に返す。動作制御部9はこれをユーザ15の動作指示として解釈することにより、動作モード11を動作シナリオ14に基づいて先に進める。   The control unit 100 receives the output of the posture sensor 4 and outputs the operation mode 11 to the posture variation detection unit 13 that functions as an example of a determination unit, and detects the variation from the posture variation detection unit 13. An operation control unit 9 to which a signal 12 is input and a controller 7 that functions as an example of an attitude control unit that receives an operation command 10 from the operation control unit 9 and also receives an output of the attitude sensor 4 are configured. ing. Therefore, the output of the attitude sensor 4 is fed back and becomes torque input to the motors 2 a and 2 b via the controller 7. With the control loop 8 described above, the robot 67 can maintain an inverted posture. Reference numeral 9 denotes an operation control unit, which indicates how the robot 67 should move based on the operation scenario 14 prepared in advance according to the task and stored in the operation scenario database 14A (specifically, what operation The operation command 10 is given to the control loop 8. In the case of the robot 67 shown in FIG. 1A, the rotation speed of the left and right wheels 1a and 1b can be used as the command value of the operation command 10, and the translation corresponding to the difference or average of the rotation speeds of the left and right wheels 1a and 1b can be used. The speed or rotation speed can also be used as the command value. The output of the posture sensor 4 is input to the posture variation detection unit 13, where the posture variation is detected by a predetermined determination algorithm corresponding to the operation mode 11 given from the operation control unit 9 of the robot 67. The fluctuation detection signal 12 is returned to the operation control unit 9. The operation control unit 9 interprets this as an operation instruction of the user 15 to advance the operation mode 11 based on the operation scenario 14.

ここで、姿勢センサ4及びエンコーダ2e、2fで検出された機体3の姿勢及び車輪回転角に基づき、制御部100がモータ2a,2bに対して適切なトルク指令を与えて機体3のバランスを維持する際に制御部100で用いられる制御アルゴリズムは、文献1である、Y. Ha and S. Yuta: Trajectory Tracking Control for Navigation of Self−Contained Mobile Inverse Pendulum, Proceedings of Conference on Intelligent Robots and Systems, pp.1875−1882, 1994に詳説されている。以下、制御部100で用いられる制御アルゴリズムについて、具体的に説明する。   Here, based on the attitude and wheel rotation angle of the airframe 3 detected by the attitude sensor 4 and the encoders 2e and 2f, the control unit 100 gives an appropriate torque command to the motors 2a and 2b to maintain the balance of the airframe 3. The control algorithm used in the control unit 100 when performing the above is Y. Ha and S.H. Yuta: Trajectory Tracking Control for Navigation of Self-Contained Mobile Inverse Pendulum, Proceedings of Conference on Intelligent Robots and Systems. 1875-1882, 1994. Hereinafter, a control algorithm used in the control unit 100 will be specifically described.

まず、図3に示すように機体3のパラメータを定義する。車輪1a,1bの回転角をθ、機体3の姿勢角をφ、機体3の質量をM、機体3の慣性モーメントをI、車輪1a,1bの質量をM(車輪1a,1bは2つあるため、1つの車輪の質量の2倍として表示。)、車輪1a,1bの慣性モーメントをI(車輪1a,1bは2つあるため、1つの車輪の慣性モーメントの2倍として表示。)、車輪1a,1bの半径をr,機体3の重心高さ(距離)をLで、を図3に示すように定義する。さらに、一例として、これらの機体3のパラメータに、試作したロボットの実測値を以下のように当てはめる。また、モータ2a,2bの粘性摩擦係数μと地面と車輪の粘性摩擦係数μは経験値をそれぞれ代入し、モータ2a,2bのトルク定数τ及び減速比η及び慣性モーメントI(モータ2a,2bは2つあるため、1つのモータの慣性モーメントの2倍として表示。)は使用するモータ2a,2bのカタログデータをそれぞれ採用する。 First, parameters of the aircraft 3 are defined as shown in FIG. The rotation angle of the wheels 1a, 1b is θ, the attitude angle of the airframe 3 is φ, the mass of the airframe 3 is M b , the moment of inertia of the airframe 3 is I b , and the mass of the wheels 1a, 1b is M w (the wheels 1a, 1b are Because there are two, it is displayed as twice the mass of one wheel.), And the inertial moment of the wheels 1a, 1b is displayed as Iw (since there are two wheels 1a, 1b, it is displayed as twice the inertial moment of one wheel. ), The radius of the wheels 1a and 1b is defined as r, and the height (distance) of the center of gravity of the airframe 3 is defined as L, as shown in FIG. Furthermore, as an example, the measured values of the prototype robot are applied to the parameters of the airframe 3 as follows. The motor 2a, the viscous friction coefficient mu g of viscous friction coefficient mu s and the ground and the wheel of 2b substitutes the experience respectively, the motor 2a, the torque constant of 2b tau t and the reduction ratio η and the moment of inertia I M (motor Since there are two 2a and 2b, it is displayed as twice the moment of inertia of one motor.) Adopts catalog data of the motors 2a and 2b to be used.

=59.4 機体の質量 (kg)
=3.257*2 車輪の質量 (kg)
=6.05 機体の慣性モーメント (Kg・m
=0.027*2 車輪の慣性モーメント (Kg・m
=0.0527*2 モータの慣性モーメント(Kg・m
r=0.2 車輪半径 (m)
L=152/1000 機体の重心距離 (m)
μ=0.0001 モータの粘性摩擦定数 (N・m/(rad/sec))
μ=0.0001 地面と車輪の粘性摩擦係数(N・m/(rad/sec))
τ=3.69 モータのトルク定数 (N・m/A)
η=30 モータの減速比
g=9.80665 重力加速度 (m/s
M b = 59.4 Mass of the aircraft (kg)
M w = 3.257 * 2 Wheel mass (kg)
I b = 6.05 Aircraft moment of inertia (Kg · m 2 )
I w = 0.027 * 2 Wheel inertia (Kg · m 2 )
I M = 0.0527 * 2 Motor moment of inertia (Kg · m 2 )
r = 0.2 Wheel radius (m)
L = 152/1000 Center of gravity distance (m)
μ s = 0.0001 Motor viscous friction constant (N · m / (rad / sec))
mu g = 0.0001 ground and the wheels of the viscous friction coefficient (N · m / (rad / sec))
τ t = 3.69 Motor torque constant (N · m / A)
η = 30 Reduction ratio of motor g = 9.80665 Gravity acceleration (m / s 2 )

以上の変数を用いると図3に示された倒立移動ロボット(言い換えれば上記倒立2輪走行ロボット)67の運動方程式は以下の2式のようになる。ただし、ロボット67は倒立状態で機体3の姿勢角φはほぼゼロという仮定を用いている。   When the above variables are used, the equation of motion of the inverted mobile robot 67 (in other words, the above-described inverted two-wheeled traveling robot) 67 shown in FIG. However, it is assumed that the robot 67 is in an inverted state and the attitude angle φ of the body 3 is substantially zero.

Figure 2006123014
Figure 2006123014

Figure 2006123014
(式2)
Figure 2006123014
(Formula 2)

さらに、状態変数を式3のように定義すると、式1、式2は次の状態方程式としてまとめ上げることができる。   Furthermore, when the state variables are defined as in Equation 3, Equations 1 and 2 can be summarized as the following state equations.

Figure 2006123014
Figure 2006123014

機体3の姿勢角φは姿勢センサ4により測定可能であり、また、車輪1a,1bの回転角θはモータ2a,2bに取り付けられかつ制御部100に回転角θの情報を入力可能なエンコーダ2e,2fによって測定が可能であるため、状態変数はすべて測定可能である。このため、適当な状態フィードバック係数を最適レギュレータ法などにより定めることで、ロボット67を倒立状態で安定化することが可能である。   The attitude angle φ of the airframe 3 can be measured by the attitude sensor 4, and the rotation angle θ of the wheels 1a and 1b is attached to the motors 2a and 2b, and an encoder 2e that can input information on the rotation angle θ to the control unit 100. , 2f, all the state variables can be measured. For this reason, it is possible to stabilize the robot 67 in an inverted state by determining an appropriate state feedback coefficient by an optimal regulator method or the like.

図4に、より具体的な例として、上記ロボット67の制御系のブロック線図を示す。上記図1Aに示すような倒立2輪走行ロボット67はモータトルク指令68を入力とし、状態変数69を出力とする1入力4出力系である。状態変数69は合算点70を経て状態フィードバックゲイン71を掛け合わせた後、合算点72を経てモータトルク指令68として倒立2輪走行ロボット67にフィードバックされる。合算点72の目的は、線形モデルとして記述できない系の摩擦をフィードフォワードすることであり、角速度指令値73の関数として表される摩擦推定器74の出力が使われる。また、合算点70の目的は、状態変数69の目標値を与えることであり、角速度指令値73の関数として表される目標状態生成器75の出力が使われる。目標状態生成器75は、角速度指令値73から角度指令値θrefを作るだけでなく、摩擦推定器74の値を基に摩擦力とバランスする姿勢角φの目標値φrefも生成する。 FIG. 4 shows a block diagram of a control system of the robot 67 as a more specific example. The inverted two-wheeled traveling robot 67 as shown in FIG. 1A is a one-input four-output system that receives a motor torque command 68 and outputs a state variable 69. The state variable 69 is multiplied by the state feedback gain 71 via the summing point 70 and then fed back to the inverted two-wheeled traveling robot 67 as the motor torque command 68 via the summing point 72. The purpose of the summing point 72 is to feed forward the friction of the system that cannot be described as a linear model, and the output of the friction estimator 74 expressed as a function of the angular velocity command value 73 is used. The purpose of the summing point 70 is to give a target value of the state variable 69, and the output of the target state generator 75 expressed as a function of the angular velocity command value 73 is used. The target state generator 75 not only generates the angle command value θ ref from the angular velocity command value 73 but also generates a target value φ ref of the posture angle φ that balances with the frictional force based on the value of the friction estimator 74.

図5は本発明の第1実施形態における倒立2輪走行ロボット67の動作シナリオ14の一例を表す図である。図5において、ステップS16,S18,S20,S22は図2における動作モード11の具体例である。また、ステップS17,S19,S21,S23は動作モード11を次に進める際の判断基準を示している。ここに、ロボット67のタスクはユーザ15の荷物29を代行して運搬することであり、このタスクに基づき以下、動作モード11の変化を説明する。   FIG. 5 is a diagram illustrating an example of the operation scenario 14 of the inverted two-wheeled traveling robot 67 in the first embodiment of the present invention. In FIG. 5, steps S16, S18, S20, and S22 are specific examples of the operation mode 11 in FIG. Steps S17, S19, S21, and S23 indicate criteria for determining when the operation mode 11 is advanced. Here, the task of the robot 67 is to carry the baggage 29 of the user 15 on behalf of the user. Based on this task, the change of the operation mode 11 will be described below.

まず、動作シナリオ14の概略を図6を用いて説明する。まず、図6の中央のグラフについて図7に取り出して説明する。すなわち、図7は本発明の第1実施形態における倒立2輪走行ロボット67の姿勢センサ4により検出された機体3の姿勢変化とこれに基づく動作モード11の変化を表す図である。図6及び図7において、24は姿勢センサ4の前後方向の姿勢の時間変化を表すグラフであり、ステップS16(待機モード),S18(スタート待ちモード),S20(追従モード),S22(荷下ろし待ちモード)は動作シナリオ14に伴う動作モード11の変化を表している。動作M25(荷物置き動作)、動作M26(背中押し動作)、動作M27(胸押し動作)、動作M28(荷下ろし動作)は具体的なユーザ15の動作を表している。   First, an outline of the operation scenario 14 will be described with reference to FIG. First, the central graph of FIG. 6 will be described with reference to FIG. That is, FIG. 7 is a diagram showing a change in posture of the body 3 detected by the posture sensor 4 of the inverted two-wheeled robot 67 in the first embodiment of the present invention and a change in the operation mode 11 based on the change. 6 and 7, reference numeral 24 is a graph showing the time change of the posture of the posture sensor 4 in the front-rear direction. Steps S16 (standby mode), S18 (start waiting mode), S20 (follow-up mode), S22 (unloading) (Waiting mode) represents a change in the operation mode 11 associated with the operation scenario 14. The operation M25 (loading operation), the operation M26 (back pressing operation), the operation M27 (chest pressing operation), and the operation M28 (unloading operation) represent specific operations of the user 15.

待機モード(ステップS16)では、ロボット67は荷物29が載せられていない状態で荷台5が水平となるようにバランス制御される(図6の(a)参照)。   In the standby mode (step S16), the robot 67 is balance-controlled so that the loading platform 5 is horizontal when the luggage 29 is not placed (see (a) of FIG. 6).

ユーザ15の荷物29を荷台5に載せる荷物置き動作M25(図6の(b)参照)において、荷物29を荷台5上に置いたこと(荷物置き動作M25)をきっかけとして、姿勢変動が発生し、これが安定するのを待って動作モード11がスタート待ちモード(ステップS18)(図6の(c)参照)へ移行する。姿勢変動が安定するのを待って動作モード11を変更する理由は、荷物29が確実に置かれるまで待つためである。ここで、荷台5に搭載された荷物29はロボット67の倒立制御に対して外乱要素として作用する。この外乱を制御系が吸収した後は、一定の姿勢オフセット30が発生する。   In the luggage placing operation M25 (see FIG. 6B) for placing the luggage 29 of the user 15 on the loading platform 5, posture change occurs due to the loading of the luggage 29 on the loading platform 5 (the luggage placing operation M25). After waiting for this to stabilize, the operation mode 11 shifts to the start waiting mode (step S18) (see FIG. 6C). The reason for changing the operation mode 11 after waiting for the posture variation to stabilize is to wait until the luggage 29 is placed securely. Here, the luggage 29 mounted on the loading platform 5 acts as a disturbance element for the inversion control of the robot 67. After the disturbance is absorbed by the control system, a constant posture offset 30 is generated.

スタート待ちモード(ステップS16)(図6の(c)参照)では荷物29が荷台5に載せられた状態で、荷物29の重さの影響で水平がやや崩れることはあるものの引き続きバランス制御される。   In the start waiting mode (step S16) (see (c) in FIG. 6), the balance 29 is continuously controlled while the load 29 is placed on the loading platform 5, although the level may be slightly lost due to the weight of the load 29. .

ユーザ15のロボット67の背中を押す動作M26(図6の(d)参照)による前傾姿勢、さらにユーザ15が手を離すことによる姿勢復帰を姿勢センサ4で検出することをきっかけとして、ロボット67は追従モード(ステップS20)(図6の(e)参照)へと遷移する。手を離すまで待つ理由は、ユーザ15の意思を確実に判断するためで、ユーザ15が想定する以上に追従モードS20に速く移行することによる衝突等の危険を最小限にするためである。ロボット67は制御の力によって倒立を維持しようとするコンプライアンスを持っており、この力に抗してユーザ15がロボット67をしっかり押すことによりロボット67に対して明確な意志を伝達することができる。また、ロボット67を前傾させることができる限り、背中のどこを押しても良いし、また、ロボット全面を引っ張っても良い。このようなある程度の力を必要とする指示動作、及び、接触する場所に対する許容度の広さが、機械スイッチ等による動作指示と異なる点である。   The robot 67 is triggered by the posture sensor 4 detecting the forward tilt posture by the operation M26 (see FIG. 6D) of pushing the back of the robot 67 of the user 15 and the posture return by the user 15 releasing the hand. Transits to the follow-up mode (step S20) (see FIG. 6E). The reason for waiting until the hand is released is to surely determine the intention of the user 15 and to minimize the risk of a collision or the like due to the transition to the follow-up mode S20 faster than the user 15 assumes. The robot 67 has a compliance for maintaining inversion by a control force, and a clear intention can be transmitted to the robot 67 when the user 15 firmly presses the robot 67 against this force. Further, as long as the robot 67 can be tilted forward, any part of the back may be pushed, or the entire robot surface may be pulled. Such an instruction operation that requires a certain amount of force and a wide tolerance for the place of contact are different from the operation instruction by a mechanical switch or the like.

追従モード(ステップS20)(図6の(e)参照)中の定常モードにおいては、ユーザ15に追従しながら走行する、すなわち、ユーザ15の動きに応じてロボット67が加減速し、姿勢角変動31a,31bが発生する。が、車輪1a,1bと地面90の間にはころがり摩擦が存在するため、ロボット67はこれを相殺するような姿勢前傾角を持ちながら走行する。すなわち、定速走行時には、車輪1a,1bの転がり摩擦に相当する姿勢角φのオフセット32が発生する。これらの姿勢角φの変動は文献1に示されるロボットの力学方程式より予想が可能であるため、これらの変動を姿勢変動検出部13がユーザ15からの指示と誤解することはない。   In the steady mode in the follow-up mode (step S20) (see FIG. 6E), the robot 67 travels following the user 15, that is, the robot 67 accelerates or decelerates according to the movement of the user 15, and the posture angle changes. 31a and 31b are generated. However, since there is rolling friction between the wheels 1a, 1b and the ground 90, the robot 67 travels with a forward tilt angle that cancels this. That is, during constant speed traveling, an offset 32 of the posture angle φ corresponding to the rolling friction of the wheels 1a and 1b is generated. Since these fluctuations in the posture angle φ can be predicted from the dynamic equation of the robot shown in Document 1, the posture fluctuation detection unit 13 does not misunderstand these fluctuations as an instruction from the user 15.

ユーザ15が目的地に到着し、ユーザ15がロボット67の胸を押す動作M27(図6の(f)参照)によりロボット67に後傾姿勢が発生すると、姿勢がゼロクロスした瞬間にユーザ15の動作指示があったと判断し、荷下ろし待ちモード(ステップS22)(図6の(g)参照)に変化する。姿勢がゼロクロスした瞬間にユーザ15の動作指示があったと判断する理由は、仮に停止命令を早めに判断したとしても、ロボット67は安全サイドに動作することになり、ユーザ15との衝突の危険性が下がるからである。   When the user 15 arrives at the destination, and the user 15 pushes the chest of the robot 67 and the robot 67 is tilted backward by the motion M27 (see FIG. 6F), the user 15 moves at the moment when the posture is zero-crossed. It is determined that there is an instruction, and the mode changes to the unloading waiting mode (step S22) (see (g) of FIG. 6). The reason for determining that the user 15 is instructed to move at the moment when the posture is zero-crossed is that even if the stop command is determined early, the robot 67 operates on the safe side, and there is a risk of collision with the user 15. Because it goes down.

荷下ろし待ちモード(ステップS22)(図6の(g)参照)では、スタート待ちモード(ステップS18)(図6の(c)参照)と同様に荷物29が載った状態でバランス制御されながら、ユーザ15の荷台5からの荷物下ろし動作(図6の(h)参照)を待つ。荷物下ろし動作(図6の(h)参照)の後は待機モード(ステップS16)(図6の(i)参照)に戻る。   In the unloading waiting mode (step S22) (see (g) of FIG. 6), the balance control is performed in the state where the load 29 is placed, as in the start waiting mode (step S18) (see (c) of FIG. 6). The user 15 waits for a load unloading operation (see FIG. 6H) from the loading platform 5. After the load unloading operation (see (h) in FIG. 6), the process returns to the standby mode (step S16) (see (i) in FIG. 6).

以下、この動作シナリオ14を詳細に説明する。   Hereinafter, the operation scenario 14 will be described in detail.

まず、動作モード11が待機モードのステップS16であるロボット67は、ステップS17で、ユーザ15から荷物29を荷台5上に載せられて、姿勢センサ4により機体3の姿勢の変化を検出して検出信号が制御部100に入力されるか、又は、物体検出センサの一例としての近接センサ70a,70bにより荷物有りと検出される(すなわち、近接センサ70a,70bから荷物検出信号が制御部100に入力される)のを待つ。   First, the robot 67 whose operation mode 11 is step S16 in the standby mode is detected by detecting a change in the posture of the airframe 3 by the posture sensor 4 by placing the load 29 on the loading platform 5 from the user 15 in step S17. A signal is input to the control unit 100 or the presence of a load is detected by proximity sensors 70a and 70b as an example of an object detection sensor (that is, a load detection signal is input to the control unit 100 from the proximity sensors 70a and 70b). Wait).

ステップS17で荷物29が載置されたことを、姿勢センサ4又は近接センサ70a,70bにより確認すると(すなわち、姿勢センサ4から姿勢変化信号又は近接センサ70a,70bから荷物検出信号が制御部100に入力されると)、制御部100によりスタート待ちであるステップS18に入り、次いでステップS19で、ユーザ15からの動作開始指令が来る(すなわち、姿勢センサ4により機体3の姿勢の変化が検出される)のを待つ。   When it is confirmed by the posture sensor 4 or the proximity sensors 70a and 70b that the baggage 29 is placed in step S17 (that is, a posture change signal from the posture sensor 4 or a baggage detection signal from the proximity sensors 70a and 70b is sent to the control unit 100. When input, the control unit 100 enters a step S18 waiting for a start, and then, in step S19, an operation start command is received from the user 15 (that is, the attitude sensor 4 detects a change in the attitude of the body 3). Wait).

ステップS19でユーザ15からの動作開始指令があったと姿勢センサ4により検出されると、制御部100によりステップS19から追従モードであるステップS20に入り、制御部100の動作制御によるユーザ15に対する追従動作を開始する。追従のための動作制御アルゴリズムとしては、文献2、大矢晃久、南雲陽介: 発光器をガイドとした自律移動ロボットの人間追従走行、日本機械学会ロボティクスメカトロニクス講演会 2001.6.9−10で開示されているものが利用可能である。追従モードの一例については後述する。   When the posture sensor 4 detects that an operation start command is received from the user 15 in step S19, the control unit 100 enters the tracking mode in step S20 from step S19, and follows the user 15 by the operation control of the control unit 100. To start. The motion control algorithm for following is disclosed in Document 2, Akihisa Oya, Yosuke Nagumo: Human following traveling of an autonomous mobile robot using a light emitter as a guide, and the Japan Society of Mechanical Engineers Robotics Mechatronics Lecture 2001.6.9-10 Is available. An example of the follow mode will be described later.

追従モードであるステップS20は、ステップS21で姿勢センサ4によりユーザ15の停止指令が検出されること(すなわち、姿勢センサ4により機体3の姿勢の変化が検出されること)をもって終了し、次いで、ユーザ15が荷物29を下ろしてくれるのを待つ(すなわち、荷物29を下ろすときの機体3の姿勢の変化を姿勢センサ4で検出するか、又は、近接センサ70a,70bにより荷台5に荷物29が無いことが検出されるのを待つ)荷下ろし待ちモードであるステップS22に入る。   Step S20, which is the follow-up mode, ends when the stop command of the user 15 is detected by the posture sensor 4 in Step S21 (that is, the change of the posture of the airframe 3 is detected by the posture sensor 4). Waiting for the user 15 to lower the luggage 29 (that is, the attitude sensor 4 detects a change in the attitude of the airframe 3 when the luggage 29 is lowered, or the proximity sensor 70a, 70b causes the luggage 29 to be placed on the loading platform 5. Step S22 is entered in the unloading waiting mode.

次いで、ステップS23で、姿勢センサ4により姿勢変化したことを検出したか又は荷台5に荷物29が有ると検出されていた近接センサ70a,70bからの信号が無くなったことにより、荷物29の下ろしが終了したか否かを判断する。荷物29の下ろしの終了が検出されたことで、一連のタスクが終了し、待機モードであるステップS16に復帰する。   Next, in step S23, it is detected that the posture has been changed by the posture sensor 4, or because the signals from the proximity sensors 70a and 70b that have been detected as having the load 29 on the loading platform 5 disappear, the load 29 is lowered. It is determined whether or not it has been completed. When the end of the unloading of the luggage 29 is detected, a series of tasks are completed, and the process returns to step S16 which is a standby mode.

次に、図5に示した動作シナリオ14を図8及び図9を用いて、ロボット67とユーザ15との間の動きの観点から、より理解しやすいように説明する。図8及び図9はロボット67とユーザ15を上方から見た場合を表し、15はユーザ、29は荷物、1a,1bはロボット67の車輪、3は機体、5は荷台である。黒い矢印83はロボット67の前方向を表す。   Next, the operation scenario 14 shown in FIG. 5 will be described with reference to FIGS. 8 and 9 from the viewpoint of the movement between the robot 67 and the user 15 so as to be easier to understand. 8 and 9 show a case where the robot 67 and the user 15 are viewed from above, where 15 is a user, 29 is a load, 1a and 1b are wheels of the robot 67, 3 is a fuselage, and 5 is a loading platform. A black arrow 83 represents the forward direction of the robot 67.

図8の(a)において荷物29を持ったユーザ15が待機モード(ステップS16)のロボット67のところに到着する。   In FIG. 8A, the user 15 with the luggage 29 arrives at the robot 67 in the standby mode (step S16).

図8の(b)において、ユーザ15が荷物29を荷台5の上に載せると、ステップS17で、ロボット67は姿勢センサ4により姿勢変化を検出することにより、又は、近接センサ70a,70bから荷物検出信号が制御部100に入力されることにより、のユーザ15の荷物載置動作を制御部100で認識してスタート待ちモード(ステップS18)に変化する。   In FIG. 8B, when the user 15 puts the luggage 29 on the loading platform 5, the robot 67 detects the attitude change by the attitude sensor 4 or the luggage from the proximity sensors 70a and 70b in step S17. When the detection signal is input to the control unit 100, the control unit 100 recognizes the load placement operation of the user 15 and changes to the start waiting mode (step S18).

さらに、図8の(c)において、ユーザ15が機体3を押すと、ロボット67は、ステップS19で姿勢センサ4により後側から前側への機体3の姿勢変化を検出することにより、この動作を制御部100により認識して追従モード(ステップS20)になる。そこで、図8の(d)のようにユーザ15がロボット67の前に回り込むと、ロボット67の前進すなわちユーザ15に追従しての走行が始まる。図8の(e)のように人間センサ6を頼りに、ユーザ15が歩き続けるのに応じて追従を行う。追従モード(ステップS20)では、人間センサ6によりユーザ15の位置を制御部100が認識し、ロボット67とユーザ15との間隔が常に一定の間隔になるように、モータ2a,2bを制御部100で動作制御して追従動作を行うが、ユーザ15が近すぎる場合や、ロボット67の前方に見えない場合はロボット67は走行を停止する。   Further, in FIG. 8C, when the user 15 presses the body 3, the robot 67 detects this change in the posture of the body 3 from the rear side to the front side by the posture sensor 4 in step S19. Recognized by the control unit 100 and enters the follow-up mode (step S20). Therefore, when the user 15 turns around in front of the robot 67 as shown in FIG. 8D, the robot 67 moves forward, that is, travels following the user 15 start. Relying on the human sensor 6 as shown in FIG. 8E, the user 15 follows as the user 15 continues walking. In the follow-up mode (step S20), the control unit 100 recognizes the position of the user 15 by the human sensor 6, and controls the motors 2a and 2b so that the distance between the robot 67 and the user 15 is always constant. However, if the user 15 is too close or cannot be seen in front of the robot 67, the robot 67 stops traveling.

次いで、図9の(f)において、ユーザ15が立ち止まると、人間センサ6により検出されるロボット67とユーザ15との間隔が一定の間隔以下になるため、制御部100によりモータ2a,2bの駆動を停止することにより、ロボット67は停止する。もちろん、再度ユーザ15が歩き出せば、人間センサ6によりロボット67とユーザ15との間隔が一定の間隔を超えて離れることになるため、制御部100によりモータ2a,2bの駆動を開始することにより、ロボット67は追従動作を再び行う。   Next, in FIG. 9F, when the user 15 stops, the distance between the robot 67 and the user 15 detected by the human sensor 6 becomes equal to or less than a certain distance, so that the controller 100 drives the motors 2a and 2b. Is stopped, the robot 67 is stopped. Of course, if the user 15 starts walking again, the human sensor 6 causes the distance between the robot 67 and the user 15 to exceed a certain distance, so that the controller 100 starts driving the motors 2a and 2b. The robot 67 performs the following operation again.

また、図9の(g)のようにユーザ15が振り返ってロボット67に近寄ると、人間センサ6により検出されるロボット67とユーザ15との間隔が一定の間隔以下になるため、制御部100によりモータ2a,2bの駆動を停止することにより、ロボット67はその場で停止状態となる。さらに、図9の(h)のようにユーザ15が機体3を押すと、ロボット67は、姿勢センサ4により前側から後側への機体3の姿勢変化を検出することにより、この動作を制御部100により認識して追従モード(ステップS20)を終了して、荷下ろし待ちモード(ステップS22)となる。   9 (g), when the user 15 looks back and approaches the robot 67, the distance between the robot 67 and the user 15 detected by the human sensor 6 becomes equal to or less than a certain distance. By stopping the driving of the motors 2a and 2b, the robot 67 is stopped on the spot. Further, when the user 15 presses the airframe 3 as shown in FIG. 9 (h), the robot 67 detects the change in the attitude of the airframe 3 from the front side to the rear side by the attitude sensor 4, thereby controlling this operation. The tracking mode (step S20) is terminated after being recognized by 100, and the unloading waiting mode (step S22) is entered.

次いで、図9の(i)において、ユーザ15が荷物29を取り除くと、姿勢センサ4により姿勢変化を検出して制御部100に入力されることにより、又は、近接センサ70a,70bから荷物検出信号が制御部100に入力されなくなることにより、再度ロボット67は制御部100によりこの動作を認識して待機モード(ステップS16)に変化する。   Next, in FIG. 9I, when the user 15 removes the luggage 29, the attitude sensor 4 detects the attitude change and inputs it to the control unit 100, or the proximity sensor 70a, 70b detects the luggage detection signal. Is no longer input to the control unit 100, the robot 67 recognizes this operation again by the control unit 100 and changes to the standby mode (step S16).

次いで、図9の(j)では、待機モード(ステップS16)となったロボット67から、ユーザ15は荷物29とともに立ち去る。   Next, in (j) of FIG. 9, the user 15 leaves with the luggage 29 from the robot 67 that has entered the standby mode (step S <b> 16).

上記第1実施形態にかかる倒立2輪走行ロボット67は、まず、倒立2輪走行ロボットの基本的な特徴として、
・4輪ロボットに比べてバランスを保ちながら背を高くできるため、底面積小さく、小回りが利く、
・常時バランスを取るため、段差を乗り越える時にも、車体が傾かないで済む、
・常時バランスを取るため、衝突した時に自然に反対方向へ逃げる動作が生じて安全である、
などが挙げられる。
The inverted two-wheeled robot 67 according to the first embodiment is first characterized as a basic feature of an inverted two-wheeled robot.
・ Because it can be taller while maintaining balance compared to a four-wheel robot, the bottom area is small and a small turn is effective.
・ Because of the balance at all times, the car body does not have to tilt when climbing over the steps.
・ Because of the constant balance, it is safe to move away in the opposite direction when a collision occurs.
Etc.

以上の理由から、倒立2輪走行ロボットは空港等の人混みの中で荷物を運搬するロボットに採用した場合、
・人混みの中で小回りが利く上に、格納時もスペースをとらない、
・段差やスロープを通過する際にも荷台が傾かず、荷物の荷崩れが防げる、
・人や物に衝突した場合にも、衝撃を最小限に留めることが可能、
といったメリットがある。
For the above reasons, when an inverted two-wheeled robot is adopted as a robot that carries luggage in crowds such as airports,
・ Small turn in a crowd and not taking up space when stored.
・ The cargo bed does not tilt even when passing through steps and slopes, preventing luggage collapse.
・ In the event of a collision with a person or object, the impact can be kept to a minimum.
There is a merit such as.

しかしながら、従来例に記載したように、倒立2輪走行ロボットに荷物の運搬を指示する際のインターフェースに課題があった。つまり、機械的なスイッチを用いてユーザインターフェースを構築する場合、ユーザはバランスを取りながらふらふらする不安定な機体上で、スイッチの位置を探して押す必要があった。このことは、スイッチを見つけることが面倒であるだけでなく、ふらふらして、一見、不安定なロボットの機体を押さなければならないという不安感を伴い、ユーザインターフェースとして不適切なものであった。   However, as described in the conventional example, there has been a problem with an interface when instructing the inverted two-wheeled traveling robot to carry the load. In other words, when constructing a user interface using mechanical switches, the user has to find and press the position of the switch on an unstable body that floats while balancing. This is not only cumbersome to find a switch, but is also unsuitable as a user interface, accompanied by anxiety that at first glance, the body of an unstable robot must be pushed.

そこで、本発明の上記第1実施形態では、倒立2輪走行ロボット67がバランスを制御する方向に姿勢がコンプライアンスを持つ(言い換えれば、押された力に応じて姿勢が許容的に変位する)ことを利用し、ユーザ15がロボット67の機体3上の任意の場所を押した場合でも、ユーザ15の意思を理解できるインターフェースを実現することができるものである。   Therefore, in the first embodiment of the present invention, the posture of the inverted two-wheeled traveling robot 67 has compliance in the direction in which the balance is controlled (in other words, the posture is allowed to be displaced in accordance with the pressed force). Even when the user 15 presses an arbitrary place on the body 3 of the robot 67, an interface that can understand the intention of the user 15 can be realized.

従来例にも記載したように、倒立2輪メカニズムに対するユーザインターフェースの従来例としてセグウェイ(登録商標)の方式が知られている。そこで、図10を用いて本発明の上記第1実施形態によるインターフェース方式とセグウェイ(登録商標)方式の違いを示す。セグウェイ(登録商標)は乗車したユーザ215が体重移動して車体200を傾けると(図10の(a)を参照)、車体200の傾きを補償するように車輪201が回転することにより、前進(後退)を行う(図10の(b),(c)を参照)。この操作方法は非常に直感的ではあるが、ユーザ215は走行中常に体を傾けている必要がある。これは、乗用車のアクセル操作と同様であり、ユーザ215は常に指示を与え続ける必要がある。これに対して本発明の上記第1実施形態は、ユーザ15が倒立2輪走行ロボット67の機体3を押すことにより(図11の(f)を参照)、ロボット67が自律的にモードを変え、停止モード(図11の(e)を参照)からユーザ15への追従モード(図11の(g)を参照)へと移行する。さらに、再度ユーザ15が機体3を押すことで(図11の(h)を参照)、再び停止モード(図11の(i)を参照)へと移行する。つまり、本発明の上記第1実施形態では、ロボット67の動作のきっかけを、ユーザ15が手で押したことによるロボット67の姿勢変化として与えている。このため、ユーザ15はロボット67に指示を与え続ける必要はなく、一度指示を出したら後はロボット67の自律動作を見守るだけで十分である。   As described in the conventional example, a Segway (registered trademark) system is known as a conventional example of a user interface for an inverted two-wheel mechanism. Therefore, the difference between the interface system and the Segway (registered trademark) system according to the first embodiment of the present invention will be described with reference to FIG. When the user 215 who gets on the Segway (registered trademark) moves his / her weight and tilts the vehicle body 200 (see FIG. 10A), the wheel 201 rotates to compensate for the vehicle body 200 tilt, thereby moving forward ( (Reverse) is performed (see FIGS. 10B and 10C). Although this operation method is very intuitive, the user 215 needs to tilt his / her body while traveling. This is the same as the accelerator operation of a passenger car, and the user 215 must always give instructions. In contrast, in the first embodiment of the present invention, when the user 15 pushes the body 3 of the inverted two-wheeled robot 67 (see FIG. 11F), the robot 67 autonomously changes the mode. Then, the mode shifts from the stop mode (see (e) of FIG. 11) to the follow mode to the user 15 (see (g) of FIG. 11). Furthermore, when the user 15 presses the body 3 again (see (h) of FIG. 11), the mode again shifts to the stop mode (see (i) of FIG. 11). That is, in the first embodiment of the present invention, the operation of the robot 67 is given as a change in the posture of the robot 67 caused by the user 15 pushing the hand. For this reason, it is not necessary for the user 15 to keep giving instructions to the robot 67. Once the instructions are given, it is sufficient to watch the autonomous operation of the robot 67.

従って、上記第1実施形態の倒立2輪走行ロボット67によれば、制御により姿勢を維持しようとすることに起因するコンプライアンスを利用して、ユーザ15が力をかけて姿勢を変化させることで動作指示を与えることが可能となる。たとえば、倒立2輪走行ロボット67に対して、「背中を押してスタートさせる」又は「胸を押して停止させる」といったユーザ15が日常の習慣から理解しやすい動作指示を実現することが可能となる。これは、従来発明にあったような、機器のアクセルを踏み続けて動作させる(従来例1)、あるいは、ユーザが与える力に対して反射的な動作を取らせる(従来例2)、といった受動的な動作ではない、自律的な動作を直感的にわかりやすい方法で簡易に指示するインターフェースを実現するものである。   Therefore, according to the inverted two-wheeled traveling robot 67 of the first embodiment, the user 15 applies a force to change the posture by using the compliance caused by trying to maintain the posture by the control. It is possible to give instructions. For example, it becomes possible for the inverted two-wheeled traveling robot 67 to realize an operation instruction that the user 15 can easily understand from daily habits, such as “start by pressing the back” or “stop by pressing the chest”. This is passive, such as in the conventional invention, by continuously stepping on the accelerator of the device (conventional example 1) or taking a reflective action with respect to the force applied by the user (conventional example 2). This is to realize an interface that simply instructs an autonomous operation, which is not a typical operation, in an intuitive and easy-to-understand manner.

図12に、モードの遷移タイミングの決定方法を示す。姿勢角φの時系列変化を測定し、ある安定した姿勢角φからの変動量があらかじめ決められた閾値を超え、さらに、変化に要する時間が予め決められた制限時間内であるときに、この変化は外乱ではなく、ユーザ15の行動の結果起きた変化であると判断する。変化が閾値を超えた瞬間をタイミングAとし、変化が終了し再度安定した瞬間をタイミングBとし、動作モードによっていずれのタイミングでモード変化を起こすかをあらかじめ決めておく。この理由は、動作モードによっては、早めにモード遷移をした方が望ましく、また、別の動作モードでは遅めにモード遷移をした方が望ましいためである。例を挙げると、スタート待ちモードでは安全のため姿勢の安定を待ってタイミングBで追従モードへモード遷移する。また、追従モードではユーザ15の停止命令を早めに反映するためにタイミングAで荷下ろし待ちモードに遷移する。   FIG. 12 shows a method for determining the mode transition timing. When the time-series change of the posture angle φ is measured, the amount of variation from a certain stable posture angle φ exceeds a predetermined threshold, and further, the time required for the change is within a predetermined time limit. It is determined that the change is not a disturbance but a change that has occurred as a result of the action of the user 15. The moment when the change exceeds the threshold value is designated as timing A, and the instant when the change is completed and stabilized again is designated as timing B. It is determined in advance at which timing the mode change occurs depending on the operation mode. This is because, depending on the operation mode, it is desirable to make the mode transition earlier, and in another operation mode, it is desirable to make the mode transition later. For example, in the start waiting mode, the mode transitions to the follow-up mode at timing B after waiting for the posture to be stable for safety. In the follow-up mode, a transition to the unloading waiting mode is made at timing A in order to reflect the stop command of the user 15 early.

また、図12に示すように、モード切替の検出は姿勢角変化量がある閾値を超えること、変化に要する時間がある制限時間以下であること、の両者を満たした場合である。つまり、姿勢角変化の大きさがある値以上であり、また、変化率もある大きさ以上であることを判断基準としている。姿勢角変化の大きさがある値以上であることは、その変動が振動やノイズでないことを保証するために必要である。変化時間を制限する理由は制御系の自律的姿勢制御動作と区別するためである。一般に倒立制御系はフィードバックゲインや機体質量・慣性モーメントから決まる固有振動数を持っている。このため、加減速時の姿勢角変化はこの振動数付近の変動となり、比較的ゆっくりしたものとなる。反面、ユーザ15がロボット67を押す場合は接触に伴う衝撃があり、姿勢角φの変化率が大きくなり短時間の変化となる。よって、ユーザ15が押す動作は制限時間内に大きな姿勢変化をもたらすことになる。以上により、ノイズ・振動・走行中の加減速に影響されない、ユーザ15の接触動作の検出が可能となる。   In addition, as shown in FIG. 12, the mode switching is detected when both the posture angle change amount exceeds a certain threshold value and the time required for the change is equal to or shorter than a certain time limit. That is, the determination criterion is that the magnitude of the posture angle change is greater than a certain value and the rate of change is greater than a certain magnitude. It is necessary to ensure that the magnitude of the posture angle change is greater than or equal to a certain value so that the fluctuation is not vibration or noise. The reason for limiting the change time is to distinguish it from the autonomous attitude control operation of the control system. In general, an inverted control system has a natural frequency determined by feedback gain, airframe mass, and moment of inertia. For this reason, the change in the attitude angle during acceleration / deceleration becomes a fluctuation near this frequency and becomes relatively slow. On the other hand, when the user 15 pushes the robot 67, there is an impact associated with the contact, and the rate of change of the posture angle φ increases, resulting in a short-time change. Therefore, the operation pressed by the user 15 causes a large change in posture within the time limit. As described above, it is possible to detect the contact motion of the user 15 that is not affected by noise, vibration, or acceleration / deceleration during traveling.

図13及び図14には、図4で示した制御系と式3で表されるロボット67の線形モデルを組み合わせたシミュレーションの結果を示している。シミュレーションの中で、ユーザ15にロボット67が押される状態、荷物29を荷台5に置いた状態、ロボット67が凸凹道を走行する状態をそれぞれモデル化するため、各状況に応じたトルク外乱を設定し、これに対する機体3の姿勢角φの変化を計算した。ここでは、ユーザ15がロボット67を押す動作をモデル化する際に、ユーザ15がロボット67を押す力を三角波として近似し、ユーザ15の押す力をシュミレーションに取り込む際に、ロボット67の観点から外乱トルクと呼んでいる。   FIG. 13 and FIG. 14 show simulation results obtained by combining the control system shown in FIG. 4 and the linear model of the robot 67 expressed by Expression 3. In the simulation, in order to model the state in which the robot 67 is pushed by the user 15, the state in which the luggage 29 is placed on the loading platform 5, and the state in which the robot 67 travels on the uneven road, a torque disturbance is set according to each situation. Then, the change of the attitude angle φ of the airframe 3 was calculated. Here, when modeling the action of the user 15 pushing the robot 67, the force of the user 15 pushing the robot 67 is approximated as a triangular wave, and when the pushing force of the user 15 is taken into the simulation, the disturbance from the viewpoint of the robot 67 This is called torque.

まず、図13の(a)と(b)には、ユーザ15が、停止中のロボット67の機体3を押した時をモデル化したモータ2a,2bのトルク外乱の設定値79と、
そのトルク外乱の下での機体3の姿勢角変化のグラフ80を示す。図13の(a)が10秒間の設定したトルク外乱変化のグラフ(外乱トルクと時間との関係のグラフ)79を表す。ユーザ15が機体3の高さ1mの場所を5Nの力で押すことを仮定し、モータ2a,2bのトルクの最大値は5Nmとした。図13の(b)は10秒間の姿勢変化のグラフ(姿勢角φと時間との関係のグラフ)80を表す。ユーザ15が機体3を押す動作を姿勢センサ4により検出するために設定された姿勢角φの閾値V76は0.05ラジアンとし、姿勢変化の立ち上がりを判定するための予め定めた時間T78は0.5秒とした。1つの実例モデルとして、定常状態から、設定された閾値V76までの立ち上がり時間T77は0.3〜0.4秒であり、予め定めた上記時間T78である0.5秒より短く、ロボット67が、これをユーザ15からの動作として制御部100により認識することができることを示している。
First, in FIGS. 13A and 13B, torque disturbance set values 79 of the motors 2a and 2b, which are modeled when the user 15 presses the body 3 of the stopped robot 67,
The graph 80 of the attitude | position angle change of the body 3 under the torque disturbance is shown. FIG. 13A shows a graph of torque disturbance change (a graph of the relationship between the disturbance torque and time) 79 set for 10 seconds. It is assumed that the user 15 pushes a place with a height of 1 m of the airframe 3 with a force of 5N, and the maximum value of the torque of the motors 2a and 2b is 5Nm. FIG. 13B shows a graph of posture change for 10 seconds (graph of relationship between posture angle φ and time) 80. The threshold value V76 of the posture angle φ set for detecting the movement of the user 15 pressing the body 3 by the posture sensor 4 is 0.05 radians, and the predetermined time T78 for determining the rising of the posture change is 0.00. 5 seconds. As one example model, the rising time T77 from the steady state to the set threshold value V76 is 0.3 to 0.4 seconds, shorter than the predetermined time T78 of 0.5 seconds, and the robot 67 This indicates that the control unit 100 can recognize this as an operation from the user 15.

図13の(c)と(d)には、ユーザ15が、停止中のロボット67の荷台5に荷物29を載せた時のモータ2a,2bのトルク外乱の設定値79と、
そのトルク外乱の下での機体3の姿勢角変化のグラフ80を示す。なお、ここでも、荷物29を中心位置からズレた状態で荷台5に置くと、ロボット67を転倒させようとするトルクが働くことになり、このトルクを図13(c)の79のような階段的に変化する形に近似している。このトルクは、ロボット67にとっては外乱と見えるため、外乱トルクと呼んでいる。図13の(c)のトルク設定値は、ユーザ15が40kgの荷物29をその重心が荷台5の上でかつ車軸の真上から2.5cmずれた場所に置いた場合を仮定して、そのように荷物29を荷台5に載せることにより最大10Nmの外乱トルクが発生したと仮定している。この時の図13の(d)の姿勢角変化のグラフ80は、設定された閾値V76に対して約0.2秒で到達しており、予め定めた時間T78である0.5秒より十分に短い。このことから、ロボット67は、制御部100により、ユーザ15の荷物載せ動作を認識することができる。
13 (c) and 13 (d), a set value 79 of torque disturbance of the motors 2a and 2b when the user 15 places the load 29 on the loading platform 5 of the robot 67 being stopped,
The graph 80 of the attitude | position angle change of the body 3 under the torque disturbance is shown. In this case as well, when the luggage 29 is shifted from the center position and placed on the loading platform 5, a torque for overturning the robot 67 is applied, and this torque is applied to a staircase as indicated by 79 in FIG. Approximates a shape that changes with time. This torque is called disturbance torque because it appears to the robot 67 as disturbance. The torque setting value in FIG. 13C is based on the assumption that the user 15 places a 40 kg load 29 at a place where the center of gravity is on the loading platform 5 and 2.5 cm off the axle. As described above, it is assumed that a disturbance torque of a maximum of 10 Nm is generated by placing the load 29 on the loading platform 5. At this time, the posture angle change graph 80 in FIG. 13D reaches the set threshold value V76 in about 0.2 seconds, which is sufficiently more than the predetermined time T78 of 0.5 seconds. Short. From this, the robot 67 can recognize the loading operation of the user 15 by the control unit 100.

図14の(e)と(f)には、ロボット67が高さ1cmの突起を連続して乗り越える場合のトルク外乱設定値のグラフ(外乱トルクと時間との関係のグラフ)79と姿勢角変化のグラフ(姿勢角φと時間との関係のグラフ)80を示す。図14の(e)のトルク設定値は、地面に転がるケーブル等をイメージした高さ1cmの突起を2秒毎にロボット67が乗り越えていく時の状態を、最大約5Nmのパルス状外乱トルクとしてモデル化している。この時の姿勢角変化のグラフ80は、設定された閾値V76をプラス方向にもマイナス方向にも越えることがないため、ロボット67はこの姿勢角変化80をユーザ15の動作として制御部100により検出することはない。   14 (e) and 14 (f) show a graph of torque disturbance set values (graph of the relationship between disturbance torque and time) 79 and posture angle change when the robot 67 continuously climbs over a projection having a height of 1 cm. The graph (graph of the relationship between the attitude angle φ and time) 80 is shown. The torque setting value shown in FIG. 14 (e) is a pulse disturbance torque of about 5 Nm at maximum when the robot 67 gets over the projection of 1 cm in height, which looks like a cable rolling on the ground, every 2 seconds. Modeling. Since the posture angle change graph 80 at this time does not exceed the set threshold value V76 in the plus direction or the minus direction, the robot 67 detects the posture angle change 80 as an action of the user 15 by the control unit 100. Never do.

図14の(g)と(h)には、ロボット67が停止状態から0.6m/sまで加速して、その後に減速する時の速度変化のグラフ(速度と時間との関係のグラフ)81と姿勢角変化のグラフ(姿勢角φと時間との関係のグラフ)80を示している。ロボット67の加減速のシュミレーションには外乱トルクの設定は必要なく、速度指令値73を変化させるだけでよい。図14の(g)には、シュミレーションにより算出されたロボット67の速度変化のグラフ81を示す。図14の(h)には、この時の姿勢角変化のグラフ80が、設定された閾値V76を越えるまでに立ち上がり時間T77が約0.8秒であることを示す。立ち上がり時間T77が予め定めた時間T78である0.5秒より大きいため、この姿勢角変化80も、ロボット67がユーザ15の動作として制御部100により認識することはない。   14 (g) and 14 (h), a graph of a speed change when the robot 67 accelerates from a stopped state to 0.6 m / s and then decelerates (a graph of the relationship between speed and time) 81. And a graph of posture angle change (a graph of the relationship between posture angle φ and time) 80. For the acceleration / deceleration simulation of the robot 67, it is not necessary to set a disturbance torque, and it is only necessary to change the speed command value 73. FIG. 14 (g) shows a graph 81 of the speed change of the robot 67 calculated by the simulation. FIG. 14H shows that the posture angle change graph 80 at this time has a rise time T77 of about 0.8 seconds before the set threshold value V76 is exceeded. Since the rising time T77 is longer than 0.5 seconds, which is a predetermined time T78, the posture angle change 80 is not recognized by the control unit 100 as the operation of the user 15 by the robot 67.

以上のように、図13の(a)及び図13の(b)はロボット67にユーザ動作として認識されるため、動作モードを変更するきっかけとなるが、図13の(c)及び図13の(d)はロボット67に認識されることがない。このおかげで、ロボット67が床の状態や自分の加減速によりユーザ15の動作を誤認識することを防ぐことが可能となる。   As described above, FIGS. 13A and 13B are recognized as user actions by the robot 67, and this is an opportunity to change the operation mode, but FIG. 13C and FIG. (D) is not recognized by the robot 67. Thanks to this, it is possible to prevent the robot 67 from erroneously recognizing the operation of the user 15 due to the state of the floor or its own acceleration / deceleration.

なお、図13の(a)、図13の(b)において、ユーザ15が停止中のロボット67の機体3を押したこと、ユーザ15が停止中のロボット67の荷台5に荷物29を載せたこと、を検出できることを示しているが、その両者を明確に区別することは難しい場合がある。   13 (a) and 13 (b), the user 15 presses the airframe 3 of the stopped robot 67, and the user 15 places the load 29 on the loading platform 5 of the stopped robot 67. However, it may be difficult to clearly distinguish between the two.

そこで、上記近接センサなどの物体検出センサが配置されていない場合には、ロボット67の運用上は、ロボット67の現在の動作モードに応じて、検出された姿勢の変化がユーザ15の荷物載せに対応するのか、ユーザ15が押したことに対応するのかを判断している。すなわち、制御部100は、検出された姿勢の変化は、それぞれ、待機モードでは荷物載置に対応すると判断し、スタート待ちモードではユーザ15が押したことに対応すると判断し、追従モードではユーザ15が押したことに対応すると判断し、荷下ろし待ちモードでは荷下ろしに対応すると判断するようにしている。   Therefore, when an object detection sensor such as the proximity sensor is not arranged, in the operation of the robot 67, the detected change in posture is placed on the load of the user 15 according to the current operation mode of the robot 67. It is determined whether the response corresponds to the user 15 pressing. That is, the control unit 100 determines that the detected change in posture corresponds to the load placement in the standby mode, determines that it corresponds to pressing by the user 15 in the start waiting mode, and determines that the user 15 in the follow-up mode. It is determined that the button is pressed, and in the unloading waiting mode, it is determined that it corresponds to the unloading.

一方、上記近接センサなどの物体検出センサが配置されている場合には、その検出毛かにより制御部100が判断する。具体的には、図1B及び図1Cに示す第1実施形態の変形例においては、ユーザ15の荷物載せとユーザ15の押し動作の区別をするための新たなセンサを用意している。図1B及び図1Cにおいて、1a,1bは同軸上に配置されて2つの車軸2c,2dにそれぞれ連結された2つの車輪、2a,2bは2つの車軸2c,2dにそれぞれ連結されて2つの車輪1a,1bをそれぞれ独立して回転駆動するための、アクチュエータの一例としての2つのモータ、3は車軸2c,2dの軸回りに回動可能に車軸2c,2dに支持されてモータ2a,2bを保持する機体、4は機体3の姿勢を検出する姿勢センサである。29は荷台5上の荷物である。なお、15は動作指示を与えようとしているユーザであり、ロボット67に対してユーザ15が接触することで動作指示を与える。70a,70bは荷台5上の物体の存在を検出するための近接センサで、近接センサ70a,70bにより荷物29が荷台5に存在するかを検出することができる。この近接センサ70a,70bを用いることにより、ユーザ15の荷物載せとユーザ15の押し動作の相違を判断することができ、制御系の判断ミスによるロボット67の誤動作を確実に防ぐことができる。また、荷台5に搭載された荷物29の重さを測定する荷重センサ82を用いても、荷物29の有り無しを判断することが出来るので、近接センサ70a,70bを配置する場合と同様な効果を得ることができる。なお、近接センサ70a,70bや荷重センサ82の検出結果はそれぞれ上記制御部100の動作制御部9に入力される(図2参照)。   On the other hand, when an object detection sensor such as the proximity sensor is arranged, the control unit 100 determines whether the detected hair is detected. Specifically, in the modification of the first embodiment shown in FIG. 1B and FIG. 1C, a new sensor is provided for distinguishing between the load of the user 15 and the pushing operation of the user 15. 1B and 1C, 1a and 1b are coaxially arranged and two wheels connected to two axles 2c and 2d, and 2a and 2b are connected to two axles 2c and 2d, respectively. Two motors 3 as an example of an actuator for independently rotating and driving 1a and 1b are supported on the axles 2c and 2d so as to be rotatable about the axles 2c and 2d, and the motors 2a and 2b are driven. The body 4 to be held is an attitude sensor that detects the attitude of the body 3. Reference numeral 29 denotes a load on the loading platform 5. Reference numeral 15 denotes a user who wants to give an operation instruction, and the operation instruction is given by the user 15 coming into contact with the robot 67. Reference numerals 70a and 70b are proximity sensors for detecting the presence of an object on the loading platform 5. The proximity sensors 70a and 70b can detect whether the luggage 29 is present on the loading platform 5. By using the proximity sensors 70a and 70b, it is possible to determine the difference between the loading operation of the user 15 and the pressing operation of the user 15, and it is possible to reliably prevent the malfunction of the robot 67 due to a determination error of the control system. Further, since the presence / absence of the load 29 can be determined even by using the load sensor 82 that measures the weight of the load 29 mounted on the loading platform 5, the same effect as the case where the proximity sensors 70a and 70b are arranged. Can be obtained. The detection results of the proximity sensors 70a and 70b and the load sensor 82 are respectively input to the operation control unit 9 of the control unit 100 (see FIG. 2).

(第2実施形態)
本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施できる。例えば、本発明は、荷載せ、荷下ろし動作を行う倒立2輪走行ロボットに限定されるものではなく、荷載せ、荷下ろし動作が無い倒立2輪走行ロボットにも適用することができる。図15は荷載せ、荷下ろし動作が無い倒立2輪走行ロボットのタスクにおけるユーザ15とのインタラクションの例を示している。ここでは、荷物29を仮定する必要がないある建物の構内で、倒立2輪走行ロボット67によりユーザ15の案内動作を行う例について説明を行う。図15はロボット67とユーザ15を上方から見た状況を表し、15はユーザ、1a,1bはロボット67の車輪、3は機体、6は人間センサである。黒い矢印83はロボット67の前方向を表す。
(Second Embodiment)
The present invention is not limited to the above-described embodiment, and can be implemented in various other aspects. For example, the present invention is not limited to an inverted two-wheeled traveling robot that performs loading and unloading operations, and can also be applied to an inverted two-wheeled traveling robot that does not perform loading and unloading operations. FIG. 15 shows an example of the interaction with the user 15 in the task of an inverted two-wheeled traveling robot that does not have loading and unloading operations. Here, an example will be described in which the guidance operation of the user 15 is performed by the inverted two-wheeled traveling robot 67 in the premises of a building where it is not necessary to assume the luggage 29. FIG. 15 shows a situation when the robot 67 and the user 15 are viewed from above. 15 is a user, 1 a and 1 b are wheels of the robot 67, 3 is a body, and 6 is a human sensor. A black arrow 83 represents the forward direction of the robot 67.

図15の(a)においてユーザ15がロボット67の所に到着する。   In FIG. 15A, the user 15 arrives at the robot 67.

図15の(b)でユーザ15が機体3を後ろから押すと、姿勢センサ4により後側から前側への機体3の姿勢変化が検出されてロボット67の制御部100がこれを認識して案内モードへと変化する。   When the user 15 pushes the airframe 3 from the back in FIG. 15B, the attitude sensor 4 detects a change in the attitude of the airframe 3 from the rear side to the front side, and the controller 100 of the robot 67 recognizes this and guides it. Change to mode.

案内モードにおいては、人間センサ6を頼りに、ロボット67とユーザ15との間に一定距離をとりながら、ユーザ15を目的地へ先導していくようにロボット67がユーザの前を走行する(図15の(c))。   In the guidance mode, the robot 67 travels in front of the user so as to lead the user 15 to the destination while taking a certain distance between the robot 67 and the user 15 by using the human sensor 6 (see FIG. 15 (c)).

ユーザ15が立ち止まった時には、ユーザ15を見失うことを防ぐためにロボット67は停止状態となり、次のユーザ15の指示を待つ。よって、図15の(d)においてユーザ15が立ち止まると、人間センサ6により検出されるロボット67とユーザ15との間隔が一定の間隔を超えることになるため、制御部100によりモータ2a,2bの駆動を停止することにより、ロボット67は停止する。   When the user 15 stops, the robot 67 is stopped in order to prevent the user 15 from losing sight, and waits for an instruction from the next user 15. Therefore, when the user 15 stops in FIG. 15D, the distance between the robot 67 and the user 15 detected by the human sensor 6 exceeds a certain distance. By stopping the drive, the robot 67 stops.

ここで、図15の(e−1)のようにユーザ15が再度機体3を押すと、姿勢センサ4により後側から前側への機体3の姿勢変化を検出して制御部100によりモータ2a,2bを再び駆動させるため、ロボット67は前進を開始する。しかしながら、図15の(e−2)のようにユーザ15が前方に回り込んで機体3を前方から押すと、姿勢センサ4により前側から後側への機体3の姿勢変化を検出して制御部100によりモータ2a,2bの駆動を停止させるため、案内モードが終了する。   Here, when the user 15 presses the airframe 3 again as shown in (e-1) of FIG. 15, the attitude sensor 4 detects the attitude change of the airframe 3 from the rear side to the front side, and the control unit 100 detects the motors 2a, In order to drive 2b again, the robot 67 starts moving forward. However, as shown in (e-2) of FIG. 15, when the user 15 turns forward and pushes the airframe 3 from the front, the attitude sensor 4 detects a change in the attitude of the airframe 3 from the front side to the rear side, and the control unit Since the driving of the motors 2a and 2b is stopped by 100, the guidance mode is ended.

本第2実施形態では、ユーザ15の荷物29の載せ・下ろしを検出していないが、ユーザ15が前後から押したことを認識している。このことで、直感的にわかりやすいインターフェースで、案内の開始と終了を行うことが可能となる。   In the second embodiment, the loading / unloading of the luggage 29 of the user 15 is not detected, but the user 15 recognizes that the user 15 has pushed from the front and back. This makes it possible to start and end guidance with an intuitive and easy-to-understand interface.

なお、上記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。   It is to be noted that, by appropriately combining arbitrary embodiments of the various embodiments described above, the effects possessed by them can be produced.

本発明にかかる倒立2輪走行ロボットは、不安定な機体と、機体の姿勢を検出する姿勢センサと、上記2つの車軸をそれぞれ回転駆動して上記機体の上記姿勢を保持する力を発生させるアクチュエータと、上記機体の上記姿勢を安定化させるように上記アクチュエータを動作制御する姿勢制御部と、上記姿勢センサからの上記機体の経時的な姿勢変化に基づいて上記人間の意図を判定する判定部と、上記判定部の出力から動作モードを変更する動作制御部を有する。さらに、倒立2輪走行ロボットのバランス動作により生ずるコンプライアンスを積極的に利用することで、ロボットの概略部位を押すとか引くといった人間の直感的な動作によってロボットに動作指示を与え、ロボットに自律的動作を起こさせることができ有用である。また、この技術はロボット以外の制御によるバランス動作を用いた乗り物等の動作モードの直感的な切替用途にも応用できる。   An inverted two-wheeled robot according to the present invention includes an unstable body, an attitude sensor that detects the attitude of the aircraft, and an actuator that generates a force for rotating the two axles to maintain the attitude of the aircraft. A posture control unit that controls the operation of the actuator so as to stabilize the posture of the aircraft, and a determination unit that determines the human intention based on a change in posture of the aircraft over time from the posture sensor. And an operation control unit that changes the operation mode from the output of the determination unit. In addition, by actively using the compliance generated by the balancing operation of an inverted two-wheeled robot, the robot is instructed by an intuitive human action such as pushing or pulling the approximate part of the robot, and the robot moves autonomously. Can be useful. This technology can also be applied to intuitive switching of operation modes of a vehicle or the like using a balance operation by control other than a robot.

本発明の第1実施形態における倒立2輪走行ロボットの側面図である。1 is a side view of an inverted two-wheeled traveling robot in a first embodiment of the present invention. 上記第1実施形態の変形例における倒立2輪走行ロボットの側面図である。It is a side view of the inverted two-wheeled traveling robot in the modified example of the first embodiment. 第1実施形態の上記変形例における倒立2輪走行ロボットの正面図である。It is a front view of the inverted two-wheeled traveling robot in the modified example of the first embodiment. 上記第1実施形態におけるロボットの制御系のブロック図である。It is a block diagram of the control system of the robot in the first embodiment. 上記第1実施形態の倒立2輪走行ロボットの機体のパラメータの定義を説明するための説明図である。It is explanatory drawing for demonstrating the definition of the parameter of the body of the inverted two-wheeled traveling robot of the said 1st Embodiment. 上記第1実施形態の倒立2輪走行ロボットの制御系のより具体的なブロック線図である。It is a more specific block diagram of the control system of the inverted two-wheeled traveling robot of the first embodiment. 上記第1実施形態におけるロボットの動作シナリオの一例を表すフローチャートである。It is a flowchart showing an example of the operation | movement scenario of the robot in the said 1st Embodiment. 上記第1実施形態におけるロボットの動作シナリオの概略を示す説明図である。It is explanatory drawing which shows the outline of the operation | movement scenario of the robot in the said 1st Embodiment. 上記第1実施形態におけるロボットの姿勢センサの変化の様子を表す図である。It is a figure showing the mode of a change of the posture sensor of the robot in the said 1st Embodiment. (a)〜(e)はそれぞれ上記第1実施形態におけるロボットとユーザを上方から見た平面図である。(A)-(e) is the top view which looked at the robot and user in the said 1st Embodiment from the upper direction, respectively. (f)〜(j)はそれぞれ上記第1実施形態におけるロボットとユーザを上方から見た平面図である。(F)-(j) is the top view which looked at the robot and the user in the said 1st Embodiment from the upper direction, respectively. (a)〜(d)はそれぞれ上記第1実施形態におけるロボットと比較のためのセグウェイ(登録商標)方式のロボットの動作を示す説明図である。(A)-(d) is explanatory drawing which shows operation | movement of the robot of the Segway (trademark) system for a comparison with the robot in the said 1st Embodiment, respectively. (e)〜(i)はそれぞれ上記第1実施形態におけるロボットの動作を示す説明図である。(E)-(i) is explanatory drawing which shows operation | movement of the robot in the said 1st Embodiment, respectively. 上記第1実施形態におけるロボットのモードの遷移タイミングの決定方法を示す説明図である。It is explanatory drawing which shows the determination method of the transition timing of the mode of the robot in the said 1st Embodiment. (a)及び(b)は上記第1実施形態におけるロボットにおいてユーザが停止中のロボットの機体を押したときの外乱トルクと見なされるユーザの押す力と時間との関係のグラフ及び姿勢角φと時間との関係のグラフであり、(c)及び(d)は上記第1実施形態におけるロボットにおいてユーザが停止中のロボットの荷台に荷物を載せたときの外乱トルクと見なされる荷物による回転トルクと時間との関係のグラフ及び姿勢角φと時間との関係のグラフである。(A) and (b) are a graph of the relationship between the user's pushing force and time, which is regarded as a disturbance torque when the user pushes the body of the robot that is stopped in the robot in the first embodiment, and the attitude angle φ. It is a graph of the relationship with time, and (c) and (d) are the rotational torque due to the load that is regarded as a disturbance torque when the user places the load on the loading platform of the robot that is stopped in the robot in the first embodiment. It is the graph of the relationship between time, and the graph of the relationship between posture angle (phi) and time. (e)及び(f)は上記第1実施形態におけるロボットにおいて高さ1cmの突起を連続してロボットが乗り越えたときの外乱トルクと見なされる乗り越えに必要な車輪トルクと時間との関係のグラフ及び姿勢角φと時間との関係のグラフであり、(g)及び(h)は上記第1実施形態におけるロボットにおいて停止状態から0.6m/sの走行状態に変化したときの速度と時間との関係のグラフ及び姿勢角φと時間との関係のグラフである。(E) and (f) are graphs of the relationship between wheel torque and time required for getting over, which is regarded as disturbance torque when the robot continuously gets over the protrusion of 1 cm height in the robot in the first embodiment, and It is a graph of the relationship between the attitude angle φ and time, and (g) and (h) are the speed and time when the robot in the first embodiment is changed from a stopped state to a running state of 0.6 m / s. It is a graph of a relationship, and a graph of the relationship between posture angle (phi) and time. (a)〜(e−2)はそれぞれ本発明の第2実施形態におけるロボットとユーザを上方から見た平面図である。(A)-(e-2) is the top view which looked at the robot and user in 2nd Embodiment of this invention from the upper direction, respectively. 従来の制御によってバランスされる乗り物を表す図である。It is a figure showing the vehicle balanced by the conventional control. 従来の制御によってバランスするロボットの側面図である。It is a side view of the robot balanced by the conventional control.

符号の説明Explanation of symbols

1a,1b 車輪
2a,2b モータ
2c,2d 車軸
2e,2f エンコーダ
3 機体
4 姿勢センサ
5 荷台
6 人間検出センサ
7 制御器
8 制御ループ
9 動作制御部
10 動作指令
11 動作モード
12 変動検出信号
13 姿勢変動検出部
14 動作シナリオ
14A 動作シナリオ用データベース
15 人間(ユーザ)
24 姿勢の時間変化
29 荷物
67 倒立2輪走行ロボット
68 モータトルク指令
69 状態変数
70 合算点
70a,70b 近接センサ
71 状態フィードバックゲイン
72 合算点
73 角速度指令値
74 摩擦推定器
75 目標状態生成器
82 荷重センサ
90 地面
100 制御部
1a, 1b Wheel 2a, 2b Motor 2c, 2d Axle 2e, 2f Encoder 3 Airframe 4 Attitude sensor 5 Loading platform 6 Human detection sensor 7 Controller 8 Control loop 9 Operation control unit 10 Operation command 11 Operation mode 12 Variation detection signal 13 Attitude variation Detection unit 14 Operation scenario 14A Operation scenario database 15 Human (user)
24 Time variation of posture 29 Luggage 67 Inverted two-wheeled traveling robot 68 Motor torque command 69 State variable 70 Summation point 70a, 70b Proximity sensor 71 State feedback gain 72 Summation point 73 Angular velocity command value 74 Friction estimator 75 Target state generator 82 Load Sensor 90 Ground 100 Control unit

Claims (7)

同軸上に配置されて2つの車軸にそれぞれ連結された2つの車輪と、上記2つの車軸を回転可能に支持する車体を有する機体と、
上記機体の姿勢を検出する姿勢センサと、
上記2つの車軸をそれぞれ回転駆動して上記機体の上記姿勢を保持する力を発生させるアクチュエータと、
上記機体の上記姿勢を安定化させるように上記アクチュエータを動作制御する姿勢制御部と、
上記姿勢センサからの上記機体の経時的な姿勢変化に基づいて上記人間の意図を判定する判定部と、
上記判定部の出力から動作モードを変更する動作制御部とを有することを特徴とする倒立2輪走行ロボット。
Two wheels arranged on the same axis and connected to two axles respectively, and a vehicle body having a vehicle body rotatably supporting the two axles,
An attitude sensor for detecting the attitude of the aircraft,
An actuator for driving each of the two axles to generate a force for maintaining the posture of the airframe;
An attitude control unit for controlling the operation of the actuator so as to stabilize the attitude of the airframe;
A determination unit for determining the human intention based on a change in posture of the aircraft over time from the posture sensor;
An inverted two-wheeled traveling robot comprising: an operation control unit that changes an operation mode based on an output of the determination unit.
上記動作制御部で変更する上記動作モードは、走行開始のために待機する待機モード、上記人間に追従して走行する追従モード、上記走行を停止する停止モードを含むことを特徴とする請求項1に記載の倒立2輪走行ロボット。   2. The operation mode to be changed by the operation control unit includes a standby mode for waiting to start running, a follow-up mode for running following the person, and a stop mode for stopping the running. An inverted two-wheeled robot described in 1. 上記判定部が、上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えれば上記人間の意図であると判定し、上記閾値以下ならば上記人間の意図ではないと判定するとともに、上記判定部が上記人間の意図であると判定したときのみ上記動作制御部で上記動作モードを変更することを特徴とする請求項1又は2に記載の倒立2輪走行ロボット。   The determination unit determines that the human body intends if the change in posture of the aircraft over time from the posture sensor exceeds a threshold, and determines that the human intention is not included if the change is equal to or less than the threshold. 3. The inverted two-wheeled traveling robot according to claim 1, wherein the operation mode is changed by the operation control unit only when the determination unit determines that the intention is the person. 4. 上記動作モードは、上記ロボットの周囲の状況を検出して検出結果を上記動作制御部に入力する周囲状況検出センサをさらに備え、
上記周囲状況検出センサによる検出結果に基づき、追従可能か否かを判断し、追従可能なときのみ追従動作を行い、追従不可のときは停止する追従モードを上記動作モードとして有することを特徴とする請求項1〜3のいずれか1つに記載の倒立2輪走行ロボット。
The operation mode further includes an ambient condition detection sensor that detects a situation around the robot and inputs a detection result to the motion control unit,
Based on the detection result of the ambient condition detection sensor, it is determined whether or not the follow-up is possible, and the follow-up operation is performed only when the follow-up is possible and stopped when the follow-up is impossible. The inverted two-wheeled traveling robot according to any one of claims 1 to 3.
荷物を検出する物体検出センサをさらに備え、
上記動作制御部は、上記物体検出センサによる検出結果に基づき、上記動作モードを、荷物載置のために待機する待機モード中では上記待機モードから荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモードに切り替えるとともに、上記人間に追従して走行する追従モード中では上記追従モードから荷下ろしのために待機する荷下ろし待ちモードに切り替えることを特徴とする請求項1〜4のいずれか1つに記載の倒立2輪走行ロボット。
It further comprises an object detection sensor for detecting the luggage,
Based on the detection result of the object detection sensor, the operation control unit is configured to start the travel following the human after the load mode is loaded from the standby mode in the standby mode for waiting for the load. 5. A follow-up start waiting mode for waiting for an instruction is switched, and in the follow-up mode in which the vehicle follows the person, the follow-up mode is switched to an unloading wait mode for waiting for unloading. The inverted two-wheeled traveling robot according to any one of the above.
上記動作制御部で変更する上記動作モードは、荷物載置のために待機する待機モード、荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモード、上記人間に追従して走行する追従モード、上記走行を停止して荷下ろしのために待機する荷下ろし待ちモードを含み、
上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えたと上記判定部で判断すれば、上記待機モード、上記追従開始待ちモード、上記追従モード、上記荷下ろし待ちモード、上記待機モードの順に上記動作制御部で上記動作モードを変更することを特徴とする請求項1に記載の倒立2輪走行ロボット。
The operation mode to be changed by the operation control unit includes a standby mode for waiting for a load, a follow-up start waiting mode for waiting for a travel start instruction following the human after the load is placed, and following the human. Including a follow-up mode for traveling, an unloading waiting mode for stopping the above-mentioned traveling and waiting for unloading,
If the determination unit determines that the change in posture of the aircraft over time from the posture sensor has exceeded a threshold, the standby mode, the follow-up start waiting mode, the follow-up mode, the unloading wait mode, and the standby mode The inverted two-wheel travel robot according to claim 1, wherein the operation control unit sequentially changes the operation mode.
上記動作制御部で変更する上記動作モードは、荷物載置のために待機する待機モード、荷物載置後に上記人間に追従しての走行開始指示を待つ追従開始待ちモード、上記人間に追従して走行する追従モード、上記走行を停止して荷下ろしのために待機する荷下ろし待ちモードを含み、
上記物体検出センサにより上記物体を検出した場合には、上記待機モードから上記追従開始待ちモードに上記動作制御部で上記動作モードを変更する一方、上記物体検出センサにより上記物体が無くなったことを検出した場合には、上記荷下ろし待ちモードから上記待機モード上記動作制御部で上記動作モードを変更し、
上記姿勢センサからの上記機体の経時的な姿勢変化が閾値を超えたと上記判定部で判断すれば、上記追従開始待ちモードにおいては上記追従開始待ちモードから上記追従モードに上記動作制御部で上記動作モードを変更する一方、上記追従モードにおいては上記追従モードから上記荷下ろし待ちモードに上記動作制御部で上記動作モードを変更することを特徴とする請求項5に記載の倒立2輪走行ロボット。
The operation mode to be changed by the operation control unit includes a standby mode for waiting for a load, a follow-up start waiting mode for waiting for a travel start instruction following the human after the load is placed, and following the human. Including a follow-up mode for traveling, an unloading waiting mode for stopping the above-mentioned traveling and waiting for unloading,
When the object is detected by the object detection sensor, the operation control unit changes the operation mode from the standby mode to the follow-up start waiting mode, while the object detection sensor detects that the object has disappeared. In that case, the operation mode is changed by the operation control unit in the standby mode from the unloading standby mode,
If the determination unit determines that the change in posture of the aircraft over time from the posture sensor has exceeded a threshold value, the operation control unit moves from the follow-up start wait mode to the follow-up mode in the follow-up start wait mode. 6. The inverted two-wheeled traveling robot according to claim 5, wherein, in the follow-up mode, the operation mode is changed by the operation control unit from the follow-up mode to the unloading waiting mode in the follow-up mode.
JP2004310885A 2004-10-26 2004-10-26 Inverted two-wheeled robot Pending JP2006123014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004310885A JP2006123014A (en) 2004-10-26 2004-10-26 Inverted two-wheeled robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004310885A JP2006123014A (en) 2004-10-26 2004-10-26 Inverted two-wheeled robot

Publications (1)

Publication Number Publication Date
JP2006123014A true JP2006123014A (en) 2006-05-18

Family

ID=36718230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004310885A Pending JP2006123014A (en) 2004-10-26 2004-10-26 Inverted two-wheeled robot

Country Status (1)

Country Link
JP (1) JP2006123014A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229800A (en) * 2007-03-22 2008-10-02 Toshiba Corp Arm-mounted mobile robot and its control method
WO2010125727A1 (en) 2009-04-28 2010-11-04 トヨタ自動車株式会社 Control portion for inverted vehicle
JP2010267193A (en) * 2009-05-18 2010-11-25 Toyota Motor Corp Inverted moving body control device
JP2011063230A (en) * 2009-09-18 2011-03-31 Honda Motor Co Ltd Inverted pendulum type vehicle
JP2012125905A (en) * 2010-12-17 2012-07-05 Fujitsu Ltd Device and program for determining parameter for external force determination, and mobile device
WO2016117204A1 (en) * 2015-01-23 2016-07-28 ソニー株式会社 Information processing device, information processing method, and program
JP2018167726A (en) * 2017-03-30 2018-11-01 株式会社Soken Inverted pendulum type mobile apparatus
JP2019025623A (en) * 2017-08-02 2019-02-21 ファナック株式会社 Robot system and robot control device
US10224769B2 (en) 2013-11-06 2019-03-05 Sony Corporation Solid-state imaging device, method of manufacturing solid-state imaging device, and electronic apparatus
US20200218254A1 (en) * 2019-01-03 2020-07-09 Lg Electronics Inc. Control method of robot
WO2023153090A1 (en) * 2022-02-10 2023-08-17 ソニーグループ株式会社 Control device, control method, program, and moving body
WO2024117453A1 (en) * 2022-11-29 2024-06-06 울산과학기술원 Two-wheel self-balancing robot
KR20240113074A (en) * 2023-01-13 2024-07-22 한국로봇융합연구원 Robot apparatus and method for following moving object based on drivable area

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229800A (en) * 2007-03-22 2008-10-02 Toshiba Corp Arm-mounted mobile robot and its control method
WO2010125727A1 (en) 2009-04-28 2010-11-04 トヨタ自動車株式会社 Control portion for inverted vehicle
US8612127B2 (en) 2009-04-28 2013-12-17 Toyota Jidosha Kabushiki Kaisha Inverted vehicle
JP2010267193A (en) * 2009-05-18 2010-11-25 Toyota Motor Corp Inverted moving body control device
JP2011063230A (en) * 2009-09-18 2011-03-31 Honda Motor Co Ltd Inverted pendulum type vehicle
JP2012125905A (en) * 2010-12-17 2012-07-05 Fujitsu Ltd Device and program for determining parameter for external force determination, and mobile device
US11689070B2 (en) 2013-11-06 2023-06-27 Sony Group Corporation Solid-state imaging device, method of manufacturing solid-state imaging device, and electronic apparatus
US10224769B2 (en) 2013-11-06 2019-03-05 Sony Corporation Solid-state imaging device, method of manufacturing solid-state imaging device, and electronic apparatus
US11031833B2 (en) 2013-11-06 2021-06-08 Sony Corporation Solid-state imaging device, method of manufacturing solid-state imaging device, and electronic apparatus
US10509401B2 (en) 2015-01-23 2019-12-17 Sony Corporation Information processing device and information processing method
US11385641B2 (en) 2015-01-23 2022-07-12 Sony Corporation Information processing device and information processing method
WO2016117204A1 (en) * 2015-01-23 2016-07-28 ソニー株式会社 Information processing device, information processing method, and program
JP2018167726A (en) * 2017-03-30 2018-11-01 株式会社Soken Inverted pendulum type mobile apparatus
US10675767B2 (en) 2017-08-02 2020-06-09 Fanuc Corporation Robot system and robot controller
JP2019025623A (en) * 2017-08-02 2019-02-21 ファナック株式会社 Robot system and robot control device
US20200218254A1 (en) * 2019-01-03 2020-07-09 Lg Electronics Inc. Control method of robot
WO2023153090A1 (en) * 2022-02-10 2023-08-17 ソニーグループ株式会社 Control device, control method, program, and moving body
WO2024117453A1 (en) * 2022-11-29 2024-06-06 울산과학기술원 Two-wheel self-balancing robot
KR20240113074A (en) * 2023-01-13 2024-07-22 한국로봇융합연구원 Robot apparatus and method for following moving object based on drivable area
KR102796329B1 (en) * 2023-01-13 2025-04-14 한국로봇융합연구원 Robot apparatus and method for following moving object based on drivable area

Similar Documents

Publication Publication Date Title
Ishida et al. Mechanical system of a small biped entertainment robot
US7703568B2 (en) Coaxial motorcycle
Shigemi et al. ASIMO and humanoid robot research at Honda
JP4956962B2 (en) Traveling apparatus and control method thereof
JP2006123014A (en) Inverted two-wheeled robot
Jeong et al. Wheeled inverted pendulum type assistant robot: design concept and mobile control
Hirata et al. Motion control of passive intelligent walker using servo brakes
Jiang et al. Shared control design of a walking-assistant robot
Hirata et al. Motion control of intelligent passive-type walker for fall-prevention function based on estimation of user state
JP4490997B2 (en) Mobile robot
JP4296852B2 (en) Coaxial motorcycle
JP5423142B2 (en) Guiding robot and control method thereof
JP2006123854A (en) Luggage transport robot
JP2003271243A (en) Communication robot
JP4296853B2 (en) Coaxial motorcycle
JP2014078223A (en) Handcart
WO2018074117A1 (en) Moving device and moving device management system
JP2005006436A (en) Coaxial motorcycle
JP2006160082A (en) Traveling apparatus and control method thereof
JP2005138631A (en) Traveling apparatus and control method thereof
Jeong et al. Control strategies for a humanoid robot to drive and then egress a utility vehicle for remote approach
WO2023166777A1 (en) Vehicle control device and vehicle control method
JP5510599B2 (en) Robot for guidance
JP4411415B2 (en) Passive type mobile trolley
JP2010257399A (en) Inverted moving body control device