JP2024082211A - Robot control system, robot control program - Google Patents
Robot control system, robot control program Download PDFInfo
- Publication number
- JP2024082211A JP2024082211A JP2023040062A JP2023040062A JP2024082211A JP 2024082211 A JP2024082211 A JP 2024082211A JP 2023040062 A JP2023040062 A JP 2023040062A JP 2023040062 A JP2023040062 A JP 2023040062A JP 2024082211 A JP2024082211 A JP 2024082211A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- unit
- luggage
- information
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの制御システム、ロボットの制御プログラムに関する。 The present invention relates to a robot control system and a robot control program.
工場の生産ラインにおいては作業を自動で行うための人型ロボットが使用されている。特許文献1には、人型ロボットの姿勢制御について記載されている。 Humanoid robots are used in factory production lines to perform tasks automatically. Patent Document 1 describes posture control of humanoid robots.
また、特許文献2には、弾性体アクチュエータで駆動されて複数の関節を有するロボットアームであって、ロボットアームの手先部に配設され支持面と接触することによりロボットアームを支持する手先支持部材と、手先支持部材と支持面との接触する力を制御すると同時にロボットアームの手先部の位置及び姿勢を制御する制御部により制御することが記載されている。 Patent Document 2 also describes a robot arm having multiple joints that is driven by an elastic actuator, and is controlled by a hand support member that is disposed at the hand of the robot arm and supports the robot arm by contacting a support surface, and a control unit that controls the contact force between the hand support member and the support surface and at the same time controls the position and posture of the hand of the robot arm.
しかしながら、従来の人型ロボットによる倉庫内でのピッキング作業において、例えば、荷物が陳列されている棚から当該荷物(シャンプーや、コンディショナー、化粧品、歯磨き粉、カップラーメン、菓子袋等の形状や重さ、硬さ、壊れやすさが違うもの)をピックアップし、所定の包装体(箱等)に収容してパッキングするような場面において、現状では人の手に頼っている。 However, conventional picking tasks in warehouses using humanoid robots currently rely on human hands when picking up items (shampoo, conditioner, cosmetics, toothpaste, instant ramen, snack wrappers, and other items of different shapes, weights, hardness, and fragility) from shelves on which they are displayed and then packing them into the appropriate packaging (boxes, etc.).
また、ロボットの把持部の構造をフィンガータイプとして対応しようとしても、指や腕の動きが遅いため、生産性が低い。 Even if we try to make the structure of the robot's gripping part a finger type, the fingers and arms move slowly, which results in low productivity.
本発明上記事実を考慮し、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるロボットの制御システム、ロボットの制御プログラムを得ることが目的である。 In consideration of the above, the present invention aims to provide a robot control system and a robot control program that can quickly and reliably perform a series of tasks, including checking the position of a package, grabbing it, and holding it, using the gripping unit.
本発明に係るロボットの制御システムは、対象物を把持する基盤となる掌部と、前記掌部に取り付けられた複数の指部とを備えた第1把持部と、対象物を把持しかつ保持することが可能な保持体を備えた第2把持部とを用いて、前記対象物を把持することが可能なロボットの制御システムであって、前記第1把持部の前記掌部及び指部毎に選択的に設けられ、異なる吸着面積で前記対象物を吸着して把持することが可能な複数種類の吸着パッドと、前記第1把持部及び前記第2把持部に設けられ、少なくとも前記対象物の形状情報を検出するセンサ部と、事前に登録された前記対象物の重さ情報に基づいて、前記対象物を把持する機能として、前記第1把持部で把持する第1機能、前記第2把持部で把持する第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択する選択部と、前記選択部で選択された機能に基づき、前記対象物を把持する動作を制御する制御部と、前記制御部による把持動作における前記対象物への接近動作中に前記センサ部で検出される当該対象物の形状情報が、前記選択部で選択された前記対象物を把持する機能の許容範囲か否かを判定する判定部と、前記判定部で許容範囲外と判定された場合に、前記対象物を把持する機能を変更する変更部と、を有している。 The control system for a robot according to the present invention is a control system for a robot capable of grasping an object using a first gripping unit having a palm portion that serves as a base for grasping an object and a plurality of finger portions attached to the palm portion, and a second gripping unit having a holder capable of grasping and holding the object, the control system comprising: a plurality of types of suction pads selectively provided for each of the palm portion and finger portions of the first gripping unit and capable of suctioning and grasping the object with different suction areas; a sensor unit provided on the first gripping unit and the second gripping unit that detects at least shape information of the object; and a weight information of the object based on previously registered weight information of the object. The device has a selection unit that selects, as a function for gripping the object, a first function for gripping with the first gripping unit, a second function for gripping with the second gripping unit, or a third function for using the first and second functions in combination; a control unit that controls the operation of gripping the object based on the function selected by the selection unit; a determination unit that determines whether or not shape information of the object detected by the sensor unit during an approach operation to the object in a gripping operation by the control unit is within an allowable range for the function for gripping the object selected by the selection unit; and a change unit that changes the function for gripping the object when the determination unit determines that the shape information is outside the allowable range.
本発明によれば、選択部では、事前に登録された対象物の重さ情報に基づいて、対象物を把持する機能として、第1把持部で把持する第1機能、第2把持部で把持する第2機能、第1機能及び第2機能を併用する第3機能の何れかを選択する。 According to the present invention, the selection unit selects, based on preregistered weight information of the object, a function for gripping the object from among a first function for gripping with a first gripping unit, a second function for gripping with a second gripping unit, and a third function for using both the first and second functions.
制御部では、選択部で選択された機能に基づき、対象物を把持する動作を制御する。 The control unit controls the action of grasping the object based on the function selected by the selection unit.
ここで、判定部では、制御部による把持動作における対象物への接近動作中にセンサ部で検出される当該対象物の形状情報が、選択部で選択された対象物を把持する機能の許容範囲か否かを判定し、変更部では、判定部で許容範囲外と判定された場合に、対象物を把持する機能を変更する。 Here, the determination unit determines whether the shape information of the object detected by the sensor unit during the control unit's approach to the object in the gripping operation is within the allowable range of the function for gripping the object selected by the selection unit, and the change unit changes the function for gripping the object when the determination unit determines that it is outside the allowable range.
これにより、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができる。 This allows the gripping unit to quickly and reliably perform the series of tasks of checking the location of the luggage, grabbing it, and holding it.
本発明において、前記判定部が、前記対象物を把持する機能と、前記対象物の形状情報の許容範囲とが関連付けられたテーブルに基づいて判定することを特徴としている。 The present invention is characterized in that the determination unit makes a determination based on a table in which the function of grasping the object is associated with the acceptable range of shape information of the object.
予め対象物を把持する機能と、対象物の形状情報の許容範囲とが関連付けられたテーブルを用いることで、形状情報による把持の許容範囲の可否を容易に判別することができる。 By using a table that associates the ability to grasp an object with the acceptable range of the object's shape information in advance, it is easy to determine whether the object is within the acceptable range of grasping based on the shape information.
本発明において、前記センサ部が、前記対象物の画像を撮影して当該対象物の種類を識別するカメラと、前記対象物の位置を特定するモーションプロセシングユニットとを備えることを特徴としている。 In the present invention, the sensor unit is characterized by having a camera that takes an image of the object and identifies the type of the object, and a motion processing unit that identifies the position of the object.
センサ部での検出結果(対象物の種類、形状、又は大きさと、位置とを含む対象物情報)に基づいて、標準規格の適合、不適合を判定することができる。 Based on the detection results from the sensor unit (object information including the type, shape, or size of the object, and its position), it is possible to determine whether the object complies with the standard.
カメラは、撮影した画像情報に基づき、撮影された対象物(以下、荷物という場合がある。)を識別する。すなわち、対象物の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 The camera identifies the photographed object (hereinafter sometimes referred to as luggage) based on the captured image information. In other words, its role is to obtain information to identify the type of object (shape, size, hardness, etc.).
モーションプロセシングユニット(MoPU)は、対象物の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報と共に位置情報として出力する。すなわち、MoPUから出力される動き情報には、対象物の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。すなわち、把持部が対象物に接近するときの軌跡を精度よく案内することができる。 The motion processing unit (MoPU) outputs vector information of the movement of a point indicating the location of an object along a specified coordinate axis as position information together with the movement information. In other words, the movement information output from the MoPU contains only information indicating the movement (movement direction and movement speed) on the coordinate axes (x-axis, y-axis, z-axis) of the center point (or center of gravity) of the object. In other words, it is possible to provide accurate guidance on the trajectory of the gripping unit as it approaches the object.
本発明において、前記第1把持部は、指部が3本設けられ、第1の指部の先端部には他の吸着パッドと比べて小径の吸着パッドが取り付けられ、第2の指部及び第3の指部の先端部には他の吸着パッドと比べて大径の吸着パッドが取り付けられており、前記制御部は、前記対象物を、前記重さ情報に基づいて、重さ分類サイズとしての、特大サイズ、大サイズ、中サイズ、小サイズ、及び特小サイズに分類し、前記対象物が、前記特大サイズの場合は、前記第2把持部に設けられた保持体を用いて把持し、前記対象物が、前記大サイズの場合は、前記掌部に設けられた吸着パッドを用いて把持し、前記対象物が、前記中サイズの場合は、前記第2の指部及び前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、前記対象物が、前記小サイズの場合は、前記第2の指部又は前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、前記対象物が、前記特小サイズの場合は、前記第1の指部の先端部に設けられた前記小径の吸着パッドを用いて把持することを選択することを特徴としている。 In the present invention, the first gripping section has three fingers, a suction pad having a smaller diameter than the other suction pads is attached to the tip of the first finger, and a suction pad having a larger diameter than the other suction pads is attached to the tip of the second finger and the third finger, and the control section classifies the object into extra-large, large, medium, small, and extra-small sizes as weight classification sizes based on the weight information, and when the object is the extra-large size, the control section grasps the object using a holder provided on the second gripping section, and holds the object. However, when the object is large, the suction pad provided on the palm is used to grasp the object; when the object is medium, the large-diameter suction pad provided on the tip of the second finger and the third finger is used to grasp the object; when the object is small, the large-diameter suction pad provided on the tip of the second finger or the third finger is used to grasp the object; and when the object is extra small, the small-diameter suction pad provided on the tip of the first finger is used to grasp the object.
1台のロボットの対象部の属性に適合する把持機能を有しているため、ロボットの選択が不要となり、ピッキング作業の効率化を図ることができる。 Since each robot has a gripping function that matches the attributes of the target part, there is no need to select a robot, which makes picking work more efficient.
本発明に係るロボットの制御システムは、コンピュータを上記の選択部、制御部、判定部、及び変更部として動作させることを特徴としている。 The robot control system according to the present invention is characterized in that it operates a computer as the above-mentioned selection unit, control unit, determination unit, and change unit.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.
以上説明したように本発明によれば、把持部による荷物の位置の確認、掴み、及び把持の一連の作業を迅速かつ確実に行うことができるという効果を奏する。 As described above, the present invention has the advantage that the gripping unit can quickly and reliably perform a series of tasks including checking the position of the luggage, grabbing it, and holding it.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.
(物流センターの構成)
図1(A)は、本実施の形態に係る物流センターの倉庫であり、荷物100(図1(B)参照)を保管する保管ベース50の斜視図である。
(Logistics Center Configuration)
FIG. 1A is a perspective view of a storage base 50 which is a warehouse in a logistics center according to this embodiment and which stores packages 100 (see FIG. 1B).
保管ベース50には、複数の棚52(一部に指標)が配置されている。一例として、6個の棚52が1列に配列され、2列単位で所謂「島」を形成している。島の形成、棚52の数等は、図1(A)の配列に限定されるものではない。 A number of shelves 52 (some with indicators) are arranged on the storage base 50. As an example, six shelves 52 are arranged in a row, and two rows form a so-called "island." The formation of islands and the number of shelves 52 are not limited to the arrangement in FIG. 1 (A).
図1(B)に示される如く、棚52には、複数の収容スペース52Aが設けられ、各々の収容スペース52Aに荷物100が収容可能となっている。 As shown in FIG. 1B, the shelf 52 is provided with a plurality of storage spaces 52A, and each storage space 52A is capable of storing luggage 100.
保管ベース50内には、複数の搬送装置54が、保管ベース50内を移動可能に配置されている。 Multiple conveying devices 54 are arranged within the storage base 50 so as to be movable within the storage base 50.
搬送装置54は、保管ベース50の中の制御対象機器を一括管理する保管ベース管理サーバー56からの指令により動作が制御され、例えば、所定の待機位置、棚52の配列位置、ピッキングステーション58の間を移動する。 The operation of the transport device 54 is controlled by commands from a storage base management server 56, which collectively manages the controlled devices in the storage base 50, and the transport device 54 moves, for example, between a predetermined waiting position, an arrangement position on the shelf 52, and a picking station 58.
搬送装置54は、棚52に対峙すると、当該棚52の下部の隙間に入り込んで持ち上げ、保管ベース50の床面から浮かせた状態とすることができる。このため、搬送装置54の移動によって、棚52を所望の位置へ移動させることができる。 When the transport device 54 faces the shelf 52, it can enter the gap under the shelf 52 and lift it up, lifting it off the floor of the storage base 50. Therefore, the shelf 52 can be moved to a desired position by moving the transport device 54.
保管ベース50の所定の位置には、複数のピッキングステーション58が配置されている。図1(A)では、2つのピッキングステーション58を図示しているが、1つ又は3つ以上のピッキングステーション58であってもよい。各ピッキングステーション58には、各々人型ロボット1が配置されている。なお、搬送装置54の変わりに、人型ロボット1を適用してもよい。人型ロボット1によれば、例えば、棚52を搬送してもよいし、棚52(収容スペース52A)から、直接、荷物100を取り出す、或いは、棚52(収容スペース52A)に、直接、荷物を収容するといった動作が可能となる。人型ロボット1についての詳細は後述する。 A plurality of picking stations 58 are arranged at predetermined positions on the storage base 50. In FIG. 1(A), two picking stations 58 are illustrated, but one or three or more picking stations 58 may be used. A humanoid robot 1 is arranged at each picking station 58. The humanoid robot 1 may be used instead of the transport device 54. The humanoid robot 1 can perform operations such as transporting a shelf 52, directly removing luggage 100 from the shelf 52 (storage space 52A), or directly storing luggage in the shelf 52 (storage space 52A). Details of the humanoid robot 1 will be described later.
人型ロボット1は、保管ベース管理サーバー56の管理の下、自身に搭載された情報処理装置14(図6参照)との連携に基づき、指令を受けた作業を実行する。 The humanoid robot 1 performs the tasks it receives commands to perform under the management of the storage base management server 56, in cooperation with the information processing device 14 (see Figure 6) installed in the humanoid robot 1.
すなわち、各ピッキングステーション58では、搬送装置54によって棚52が、ピッキングステーション58の間口58Aに配置されると、保管ベース管理サーバー56からの指令を受けて、人型ロボット1が荷物100の入庫業務及び出庫業務を行う。 In other words, at each picking station 58, when the transport device 54 places the shelf 52 at the entrance 58A of the picking station 58, the humanoid robot 1 receives commands from the storage base management server 56 and performs the storing and unstoring operations of the luggage 100.
なお、入庫業務及び出庫業務自体の制御は、人型ロボット1の各々が持つ、情報処理装置14(図6参照)によって制御される。 The warehousing and shipping operations themselves are controlled by an information processing device 14 (see Figure 6) that each humanoid robot 1 possesses.
ピッキングステーション58には、棚52が配置される間口58Aと共に、仕分けや梱包を行う作業スペース58Bが設置されている。 The picking station 58 has an opening 58A where the shelves 52 are arranged, as well as a work space 58B where sorting and packaging are performed.
出庫業務は、棚52に収容された荷物100を、宛先に応じて取り出して、仕分け先毎に分類し、仕分け先毎の箱60(輸送部材)に詰め込む作業である。 The shipping process involves removing packages 100 stored on shelves 52 according to their destination, sorting them by destination, and packing them into boxes 60 (transportation materials) for each destination.
入庫業務は、倉庫に到着した荷物100を収容先の棚52毎に分類して、分類した荷物100を棚52の所定の位置に配置する作業である。 The warehousing operation involves sorting the luggage 100 that arrives at the warehouse into the storage shelves 52 and placing the sorted luggage 100 in the designated positions on the shelves 52.
なお、本実施例では、出庫業務の各作業と入庫業務の各作業を以下のように定義する。 In this embodiment, the tasks in the shipping process and the tasks in the receiving process are defined as follows:
(出庫業務1) ピッキング作業
間口58Aに到着した棚52から人型ロボット1が、指定された荷物100を取り出して、作業スペース19に移動させる作業である。
(Warehouse Delivery Operation 1) Picking Operation This is an operation in which the humanoid robot 1 picks up a specified piece of luggage 100 from the shelf 52 that has arrived at the entrance 58A and moves it to the work space 19.
(出庫業務2) アソート作業
作業スペース58Bに取り出した荷物100を、宛先に応じた箱60に収容し、当該箱の梱包等を行う作業である。
(Warehouse Delivery Operation 2) Assortment Work This is the work of storing the luggage 100 taken out to the work space 58B into boxes 60 according to the destination, and packaging the boxes, etc.
(出庫業務3) 出庫作業
間口58Aに配置された棚52のピッキング作業が完了し、次の棚52を要求する作業である。
(Warehouse Delivery Operation 3) Warehouse Delivery Operation This is the operation of requesting the next shelf 52 after the picking operation for the shelf 52 arranged at the frontage 58A has been completed.
(入庫業務1) ピッキング作業
間口58Aに到着したトラックやパレットから、指令された荷物100を取り出して、作業スペース58Bに移動させる作業である。
(Warehouse Operation 1) Picking Work This is the work of removing the specified cargo 100 from the truck or pallet that has arrived at the entrance 58A and moving it to the work space 58B.
(入庫業務2) アソート作業
作業スペース58Bに取り出した荷物100を、格納先に応じた棚52に収容する作業である。
(Warehouse Operation 2) Assortment Work This is the work of storing the luggage 100 taken out to the work space 58B on the shelf 52 according to the storage destination.
(入庫業務3) 入庫作業
間口58Aに配置された棚52のアソート作業が完了し、次の棚52を要求する作業である。
(Warehouse Receiving Operation 3) Warehouse Receiving Operation This is the operation to request the next shelf 52 after the assortment operation on the shelf 52 arranged at the frontage 58A is completed.
ここで、各人型ロボット1の作業に関する情報は、人型ロボット1の情報処理装置14から、逐次、保管ベース管理サーバー56へ送出される。これにより、保管ベース管理サーバー56では、複数の人型ロボット1の動作状態(作業進捗情報)が一括管理される。 Here, information regarding the work of each humanoid robot 1 is sequentially sent from the information processing device 14 of the humanoid robot 1 to the storage base management server 56. As a result, the storage base management server 56 collectively manages the operating status (work progress information) of multiple humanoid robots 1.
(人型ロボット1の詳細構成)
図2は本実施の形態に係る人型ロボット1の正面図である。図2に示すように、本実施の形態に係る人型ロボット1は、上半身部2、脚部3、および上半身部2を脚部3に対して回動可能に連結する連結部4を備え、例えば、図1(A)に示す保管ベースや、工場の生産ライン等に配置されて、ピッキング対象物である荷物100(図2(B)参照)等が陳列されている棚52を含むライン上、又は床上の対象物(落下物等)に対して作業を行うものである。なお、作業は、荷物100を把持するピッキング以外に、把持した荷物100を所定の筐体(例えば、図1(A)に示す箱60等)に収容するパッキングを含む。
(Detailed Configuration of Humanoid Robot 1)
Fig. 2 is a front view of the humanoid robot 1 according to the present embodiment. As shown in Fig. 2, the humanoid robot 1 according to the present embodiment includes an upper body 2, legs 3, and a connecting part 4 that rotatably connects the upper body 2 to the legs 3, and is arranged, for example, on a storage base shown in Fig. 1(A) or a production line in a factory, and performs work on a line including a shelf 52 on which packages 100 (see Fig. 2(B)) that are picking objects are displayed, or on an object (such as a fallen object) on the floor. Note that the work includes not only picking, which is to grip the package 100, but also packing, which is to store the gripped package 100 in a predetermined case (such as the box 60 shown in Fig. 1(A)).
上半身部2は2本の腕部5、6を有する。腕部5、6は上半身部2の左右に回動自在に取り付けられている。また、腕部5、6の先端には荷物100を把持するための把持部20(詳細後述)が取り付けられている。なお、腕部は2本に限定されるものではなく、1本あるいは3本以上であってもよい。 The upper body 2 has two arms 5 and 6. The arms 5 and 6 are attached to the left and right of the upper body 2 so that they can rotate freely. In addition, a gripping part 20 (described in detail later) for gripping luggage 100 is attached to the tip of the arms 5 and 6. The number of arms is not limited to two, and may be one or three or more.
脚部3は2つの車輪7、8がその下部に取り付けられており、人型ロボット1が配置される床の上を移動可能とされている。 The leg 3 has two wheels 7 and 8 attached to its bottom, allowing it to move across the floor on which the humanoid robot 1 is placed.
連結部4は、上半身部2と脚部3を回動可能に連結する。このため、上半身部2は、脚部3に対して前傾および後傾が可能となっている。このため、本実施の形態に係る人型ロボット1は、図3に示すように、脚部3に対して上半身部2を前傾させて、棚52に置かれた荷物100や、床に置かれていた荷物100、及び作業中に床に落ちたりした荷物100を拾うことが可能である。 The connecting part 4 connects the upper body part 2 and the legs 3 in a rotatable manner. Therefore, the upper body part 2 can lean forward and backward with respect to the legs 3. Therefore, the humanoid robot 1 according to this embodiment can lean the upper body part 2 forward with respect to the legs 3 as shown in FIG. 3, and pick up luggage 100 placed on a shelf 52, luggage 100 placed on the floor, and luggage 100 that has fallen to the floor during work.
なお、脚部3は、上半身部2が脚部3に対して前傾または後傾したり、人型ロボット1が移動したりした際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。 The legs 3 have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3 or when the humanoid robot 1 moves.
また、連結部4は、図2に示すように上半身部2と脚部3との距離を変更可能な機能を有する。このため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を矢印Aに示すように調整することができる。 The connecting part 4 also has a function that allows the distance between the upper body part 2 and the legs 3 to be changed, as shown in FIG. 2. Therefore, the vertical position of the upper body part 2 relative to the legs 3 can be adjusted, as shown by arrow A, to match the height of the workbench on the production line.
また、本実施の形態に係る人型ロボット1は、人型ロボット1内に実装された制御システム10によりその駆動が制御される。 In addition, the humanoid robot 1 according to this embodiment is controlled by a control system 10 implemented within the humanoid robot 1.
(把持部20の構造)
図4(A)に示される如く、腕部5、6の先端に取り付けられた把持部20は、一方(本実施の形態では、左腕である腕部6側)が人間の同様の手の構造とされ(Intelligent Hand System)、他方(本実施の形態では、右腕である腕部5側)が矩形構造となっている。以下、左右の把持部20を区別する場合は、左手側を「把持部20L」といい、右手側を「把持部20R」という)。把持部20は、腕部5、6に対して、それぞれ回転自在に取り付けられている。
(Structure of grip portion 20)
As shown in Fig. 4A, the gripping parts 20 attached to the ends of the arms 5 and 6 have a structure similar to that of a human hand (Intelligent Hand System) on one side (the arm 6 side, which is the left arm in this embodiment) and a rectangular structure on the other side (the arm 5 side, which is the right arm in this embodiment). Hereinafter, when distinguishing between the left and right gripping parts 20, the left hand side will be referred to as "grip 20L" and the right hand side will be referred to as "grip 20R"). The gripping parts 20 are attached to the arms 5 and 6 so as to be freely rotatable.
(左手の把持部20L)
図4(A)及び図5(A)に示される如く、本実施の形態に係る把持部20Lは、各々複数の関節を備えた3本の指部22A、22B、22Cを有している。なお、本実施の形態では、把持部20Lの指の数を3本としているが、5本指などの複数指構造であってもよい。
(Left hand grip 20L)
4A and 5A, the grip portion 20L according to the present embodiment has three fingers 22A, 22B, and 22C, each of which has a plurality of joints. Note that, although the number of fingers of the grip portion 20L is three in the present embodiment, it may have a multi-finger structure, such as five fingers.
把持部20Lの掌側20Aには、複数(本実施の形態では、4個)の吸着パッド24が取り付けられている。 Multiple suction pads 24 (four in this embodiment) are attached to the palm side 20A of the gripping portion 20L.
また、本実施の形態の把持部20Lの掌側20Aの中央部には、掌センサ26が取り付けられている。掌センサ26は、荷物100の種類を識別する高解像度カメラ、及び、荷物100の位置を特定するMoPU(Motion Processing Unit)を備えている。 In addition, in this embodiment, a palm sensor 26 is attached to the center of the palm side 20A of the gripping portion 20L. The palm sensor 26 is equipped with a high-resolution camera that identifies the type of luggage 100, and a MoPU (Motion Processing Unit) that identifies the position of the luggage 100.
また、3本の指部22A、22B、22Cの先端部には、それぞれ吸着パッド24X、24Yが取り付けられている。吸着パッド24X、24Yの分類については、後述する。 In addition, suction pads 24X and 24Y are attached to the tips of the three fingers 22A, 22B, and 22C, respectively. The classification of suction pads 24X and 24Y will be described later.
(右手の把持部20R)
図4(A)及び図5(B)に示される如く、本実施の形態に係る把持部20Rは、矩形状の本体部20Bを備え、本体部20Bの先端面には、複数(本実施の形態では、4個)の吸着パッド24が取り付けられている。この吸着パッド24は、左手の把持部20Lで適用した何れかの吸着パッド24X又は吸着パッド24Yの何れであってもよいし、別の径寸法であってもよい。
(Right hand grip 20R)
4(A) and 5(B), the grip part 20R according to this embodiment has a rectangular main body part 20B, and a plurality of (four in this embodiment) suction pads 24 are attached to the tip surface of the main body part 20B. The suction pads 24 may be either the suction pad 24X or the suction pad 24Y used in the left grip part 20L, or may have a different diameter dimension.
また、本実施の形態の把持部20Rの本体部20Bの先端面中央部には、掌センサ26が取り付けられている。掌センサ26は、荷物100の種類を識別する高解像度カメラ、及び、荷物100の位置を特定するMoPU(Motion Processing Unit)を備えている。 In addition, in this embodiment, a palm sensor 26 is attached to the center of the tip surface of the main body 20B of the gripper 20R. The palm sensor 26 is equipped with a high-resolution camera that identifies the type of luggage 100, and a MoPU (Motion Processing Unit) that identifies the position of the luggage 100.
図4(B)に示される如く、吸着パッド24は、荷物100を把持するときに対峙させるゴム製のパッド部24Aと、パッド部24Aと荷物100との密着により形成される密閉空間のエアーを吸引する空気流路を形成するニップル24Bとで構成されている。 As shown in FIG. 4(B), the suction pad 24 is composed of a rubber pad portion 24A that faces the baggage 100 when gripping it, and a nipple 24B that forms an air flow path to suck in air from the sealed space formed by the close contact between the pad portion 24A and the baggage 100.
すなわち、本実施の形態の吸着パッド24は、エアー吸着構造であり、ニップル24Bに設けられた孔24Cから、密閉空間内の空気を吸引して真空(ほぼ真空を含む)することで、吸着力を持つ。なお、吸着パッド24は、エアー吸着構造に限らず、単純にパッド部24Aの変形による密閉空間の容積を変化させて吸着させる構造であってもよい。 In other words, the suction pad 24 in this embodiment has an air suction structure, and has suction power by sucking air from the sealed space through a hole 24C provided in the nipple 24B to create a vacuum (including a near vacuum). Note that the suction pad 24 is not limited to an air suction structure, and may have a structure in which suction is achieved by simply changing the volume of the sealed space by deforming the pad portion 24A.
ここで、吸着パッド24は、取付位置によってその大きさが異なっている(パッド部24Aの径寸法の違い)。 Here, the size of the suction pad 24 varies depending on the mounting position (due to the difference in the diameter dimension of the pad portion 24A).
大きく分類すると、吸着パッド24は、大径サイズ又は小径サイズに分類され、相対的に小径サイズ(大径サイズよりも小径)の吸着パッド24Xと、相対的に大径サイズ(小径サイズよりも大径)の吸着パッド24Yとによって構成されている。以下において、サイズの識別が不要で総称する場合、単に吸着パッド24という場合がある。 Broadly speaking, the suction pads 24 are classified into large diameter size and small diameter size, and are composed of suction pads 24X of relatively small diameter size (smaller than the large diameter size) and suction pads 24Y of relatively large diameter size (larger than the small diameter size). In the following, when it is not necessary to distinguish between sizes and they are referred to collectively, they may be simply referred to as suction pads 24.
把持部20Lの指部22Aには小径サイズの吸着パッド24Xが取り付けられ、その他の指部22B、22C、及び掌側20Aには大径サイズの吸着パッド24Yが取り付けられている。 A small-diameter suction pad 24X is attached to the finger portion 22A of the gripping portion 20L, and a large-diameter suction pad 24Y is attached to the other finger portions 22B, 22C, and the palm side 20A.
また、把持部20Rの本体には、大径サイズの吸着パッド24Yが取り付けられている。 In addition, a large-diameter suction pad 24Y is attached to the main body of the gripper 20R.
なお、吸着パッド24X、24Yのサイズを2種類としたが、3種類以上であってもよい。 Although the suction pads 24X and 24Y are provided in two sizes, they may be provided in three or more sizes.
本実施の形態の掌センサ26を構成する高解像度カメラは、撮影した画像情報に基づき、撮影された荷物100が何であるかシャンプー、コンディショナー、化粧品、歯磨き粉等のケア商品なのか、又は、カップラーメン、菓子袋等の食品なのかを識別する。 The high-resolution camera that constitutes the palm sensor 26 of this embodiment identifies the photographed luggage 100 based on the captured image information, and determines whether it is a care product such as shampoo, conditioner, cosmetics, or toothpaste, or whether it is food such as instant ramen or a bag of sweets.
言い換えると、高解像度カメラは、荷物100の種類(形状、大きさ、硬さ等)を特定するための情報を取得する役目を有する。 In other words, the high-resolution camera serves to obtain information to identify the type of luggage 100 (shape, size, hardness, etc.).
一方、高解像度カメラと共に、本実施の形態の掌センサ26を構成するMoPUは、1000フレーム/秒以上のフレームレートで撮影された荷物100の画像から、撮影された荷物100の動き(この場合、腕部5、6との間の相対的な動きとなる。)を示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。なお、移動中の荷物100を検知する場合、フレームレートを上げて、固定物(移動しない荷物100)を検知する場合、フレームレートを下げるようにしてもよい。 Meanwhile, the MoPU, which constitutes the palm sensor 26 of this embodiment together with the high-resolution camera, outputs, from an image of the luggage 100 captured at a frame rate of 1000 frames/second or more, motion information indicating the motion of the captured luggage 100 (in this case, the relative motion between the arms 5, 6) at a frame rate of, for example, 1000 frames/second or more. Note that when detecting a moving luggage 100, the frame rate may be increased, and when detecting a fixed object (luggage 100 that does not move), the frame rate may be decreased.
MoPUは、荷物100の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPUから出力される動き情報には、撮影された荷物100が何であるか(上記ケア商品、食品)を識別するために必要な情報は含まれておらず、当該荷物100の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。 The MoPU outputs, as motion information, vector information on the movement of a point indicating the location of the luggage 100 along a specified coordinate axis. In other words, the motion information output from the MoPU does not include information necessary to identify what the photographed luggage 100 is (the care product or food) and only includes information indicating the movement (direction and speed of movement) of the center point (or center of gravity) of the luggage 100 on the coordinate axes (x-axis, y-axis, z-axis).
すなわち、把持部20が荷物100に接近するときの軌跡を精度よく案内することができる。 In other words, the trajectory of the gripping portion 20 as it approaches the luggage 100 can be accurately guided.
高解像度カメラ及びMoPUを含む掌センサ26から出力された情報は、情報処理装置14に供給される。 Information output from the palm sensor 26, which includes a high-resolution camera and MoPU, is supplied to the information processing device 14.
情報処理装置14は、高解像度カメラ及びMoPUを含む掌センサ26からの情報により、高精度に荷物100の位置を特定し、把持するときの指部22A、22B、22Cの広がり度合い、掴むときの強度、及び吸着パッド24による吸着力等を演算し、腕部5、6及び把持部20の微小な動きを、精度よくコントロールし、様々な荷物100のピッキング作業に対応することができる。 The information processing device 14 uses information from a palm sensor 26 including a high-resolution camera and MoPU to pinpoint the position of the luggage 100 with high precision, calculates the degree of spread of the fingers 22A, 22B, 22C when gripping, the strength of the grip, and the suction force of the suction pad 24, and accurately controls the minute movements of the arms 5, 6 and the gripping part 20, making it possible to handle the picking of various luggage 100.
(吸着パッド24X、24Yの選択)
本実施の形態では、荷物100の重さ情報に基づき、吸着パッド24X、24Yを選択する。
(Selection of suction pads 24X and 24Y)
In this embodiment, the suction pads 24X and 24Y are selected based on the weight information of the baggage 100.
ピッキング対象の荷物100は、本実施の形態では、以下の表1のように分類することができる。 In this embodiment, the luggage 100 to be picked can be classified as shown in Table 1 below.
表1は、ピッキング対象の荷物100(Object)を、形状(Shape)、重さ(Weight)、及びその他状態(Other condition)の3項目で分類している。 Table 1 classifies the objects 100 to be picked according to three categories: shape, weight, and other condition.
形状の項目としては、箱型(Box)、非箱型(Not box)、及びその他(Other)が設定される。重さの項目としては、5kg以上(Over 5kg)及び5kg未満(Below 5kg)が設定される。状態の項目としては、四角形等の多角形を主とする線形的形状(Aligned)及び球体や袋体を主とする非線形形状(Not aligned)が設定される。 The shape category can be set to Box, Not box, or Other. The weight category can be set to Over 5kg or Below 5kg. The state category can be set to Aligned, which is a linear shape that is primarily polygonal, such as a rectangle, or Not aligned, which is a nonlinear shape that is primarily a sphere or bag.
ここで、比較例では、上記各項目の組み合わせで決定した荷物100の属性に基づいて、適用可能なロボットを選択して、ピッキング作業を実行するようにしていた。すなわち、ロボットの種類として、フィンガーロボット(Finger robot)、吸着ロボット(Sucking robot)の「大(Large)」、「中(Medium)」、「小(Small)」,及び2本アームロボット(Both 2 arms robot)があり、これらの中から、適用可能なロボットを選択する。 In the comparative example, an applicable robot is selected based on the attributes of the luggage 100 determined by combining the above items, and the picking work is performed. That is, the types of robots include finger robots, sucking robots in "large", "medium", and "small", and two-arm robots, and an applicable robot is selected from among these.
しかしながら、種類の異なるロボットの選択では、例えば、近くに待機しているロボットが適用対象外の種類のロボットの場合、新たに適用可能な種類のロボットを呼び寄せる必要があり、ピッキング作業の効率が悪かった。 However, when selecting a different type of robot, for example, if a robot waiting nearby is of an inapplicable type, a new robot of an applicable type must be called in, making the picking process less efficient.
そこで、本実施の形態では、単一の人型ロボット1に、複数の異なる把持部(把持部20L、20R)を設けると共に、異なる大きさの吸着パッド(吸着パッド24X、24Y)を取り付けることで、事前に知り得る荷物100の重さ情報に基づき、1台の人型ロボット1に取り付けられた1本又は2本の腕部5、6(指部22A、22B、22C)から把持機能を選択し、吸着及び/又は掴み動作で荷物100のピッキングを行うようにした。 In this embodiment, a single humanoid robot 1 is provided with multiple different gripping parts (grip parts 20L, 20R) and is also fitted with suction pads of different sizes (suction pads 24X, 24Y). Based on the weight information of the luggage 100 that can be known in advance, a gripping function is selected from one or two arms 5, 6 (fingers 22A, 22B, 22C) attached to the single humanoid robot 1, and the luggage 100 is picked up by suction and/or gripping operations.
また、1台の人型ロボット1が、複数の把持機能を持つことで、重さ情報に基づく把持動作の選択に加え、実際に、荷物100に近づき、掌センサ26で検出した画像情報から、荷物100の形状情報(サイズ)を特定し、選択した腕部5、6(指部指部22A、22B、22C)では、把持が不安定(予め定めた形状情報(サイズ)が許容範囲を逸脱)となる可能がある場合に、現場(対峙状態)で、把持形態の変更が可能である。 In addition, by having multiple grasping functions, one humanoid robot 1 can select a grasping action based on weight information, and can actually approach the luggage 100, identify the shape information (size) of the luggage 100 from the image information detected by the palm sensor 26, and if there is a possibility that grasping will be unstable (predetermined shape information (size) deviates from the acceptable range) with the selected arm parts 5, 6 (fingers 22A, 22B, 22C), the grasping form can be changed on-site (in a confrontational state).
すなわち、本実施の形態では、重さ情報に基づくピッキング作業の選択に続き、必要に応じて(掌センサ26からの検出情報を利用して)、形状情報(サイズ)に基づくピッキング作業の変更が実行される。 In other words, in this embodiment, following the selection of a picking task based on weight information, the picking task is changed based on shape information (size) as necessary (using detection information from the palm sensor 26).
(重さ情報に基づくピッキング作業の選択)
本実施の形態では、表1で確定した荷物100の重さ情報に応じて、表2に示される如く、オブジェックトサイズ(Object size)として5パターン(Extra-Large、Large、Medium、Small、Extra-small)に分類し、当該5パターンのそれぞれに対応したピッキング作業を選択するようにした(Suitable for : Right hand、Left hand palm、Left 2 fingers、left 1 finger)。
(Selection of picking operations based on weight information)
In this embodiment, depending on the weight information of the luggage 100 determined in Table 1, the object size is classified into five patterns (extra-large, large, medium, small, extra-small) as shown in Table 2, and a picking task corresponding to each of the five patterns is selected (suitable for: right hand, left hand palm, left 2 fingers, left 1 finger).
より具体的には、以下のような選択制御が実行される。 More specifically, the following selection control is performed:
(選択制御1) Extra-Largeサイズ(特大サイズ)の荷物100の場合は、最も重い荷物100と判断して、右手の把持部20Rを使用してピッキングする。 (Selection Control 1) In the case of an extra-large size package 100, it is determined to be the heaviest package 100 and is picked using the right hand grip 20R.
(選択制御2) Largeサイズ(大サイズ)の荷物100の場合は、左手の把持部20Lの掌側20Aに取り付けられた吸着パッド24Yを使用してピッキングする(大径サイズの4個の吸着パッド24Yを使用)。 (Selection Control 2) In the case of a large-sized package 100, the package is picked using the suction pad 24Y attached to the palm side 20A of the left hand grip 20L (four large-diameter suction pads 24Y are used).
(選択制御3) Mediumサイズ(中サイズ)の荷物100の場合は、左手の把持部20Lの指部22B及び指部22Xに取り付けられた2個の吸着パッド24Yを使用してピッキングする(大径サイズの2個の吸着パッド24Yを使用)。 (Selection Control 3) In the case of a medium-sized piece of luggage 100, the luggage is picked using two suction pads 24Y attached to the finger portions 22B and 22X of the left gripping portion 20L (two large-diameter suction pads 24Y are used).
(選択制御4) Smallサイズ(小サイズ)の荷物100の場合は、左手の把持部200Lの指部22Bを使用してピッキングする(大径サイズの吸着パッド24Yを使用)。 (Selection Control 4) In the case of a small-sized package 100, the package is picked using the finger portion 22B of the left hand gripper 200L (using the large-diameter suction pad 24Y).
(選択制御5) Extra-smallサイズ(特小サイズ)の荷物100の場合は左手の把持部20Lの指部22Aを使用してピッキングする(小径サイズの吸着パッド24Xを使用)。 (Selection Control 5) For extra-small size luggage 100, pick it using the finger portion 22A of the gripper 20L of the left hand (using the small diameter suction pad 24X).
(選択制御6) 表2には記載していないが、グリップ(掴む)のに適した荷物100であれば、左手の把持部20Lの指部22A、22B、22Cで荷物100を掴んで持ち上げる。この選択制御6は、上記の選択制御1~選択制御5との併用でもよいし、単独で実行してもよい。 (Selection Control 6) Although not shown in Table 2, if the luggage 100 is suitable for gripping, the luggage 100 is grasped and lifted with the fingers 22A, 22B, and 22C of the gripping portion 20L of the left hand. This selection control 6 may be used in combination with the above selection controls 1 to 5, or may be executed alone.
(形状情報(サイズ)に基づく、ピッキング作業の変更)
ここで、上記した、表1及び表2に基づく、選択制御1~選択制御6は、荷物100の重さ情報に基づいて、吸着パッド24の大きさを選択している。
(Changes in picking operations based on shape information (size))
Here, the selection controls 1 to 6 based on Tables 1 and 2 described above select the size of the suction pad 24 based on the weight information of the baggage 100.
一方で、例えば、重さの判定では、選択制御5に基づく、Extra-smallサイズ(特小サイズ)が選択された荷物100が、所定以上の大きさの場合、把持した後の荷物100のバランスによっては、把持状態が不安定になる場合がある。 On the other hand, for example, when determining the weight of a piece of luggage 100 for which extra-small size is selected based on selection control 5, if the piece of luggage 100 is a certain size or larger, the gripping state may become unstable depending on the balance of the piece of luggage 100 after it is gripped.
そこで、本実施の形態では、上記した表1及び表2に基づく、選択制御1~選択制御6に加え、ピッキング作業の変更制御を実行するようにした。 Therefore, in this embodiment, in addition to selection control 1 to selection control 6 based on Tables 1 and 2 above, change control of the picking work is also performed.
変更制御とは、人型ロボット1が荷物100に対峙して把持を実行する前に、掌センサ26を用いて、実際の荷物100の外観を撮影して形状情報(サイズ)を取得し、予め記憶した吸着パッドサイズ-形状許容範囲テーブルに基づき、選択された吸着パッド24の形状情報(サイズ)の許容範囲内であるか否かを判断し、許容範囲を逸脱する所定以上の形状情報(サイズ)の場合には、選択した吸着パッド24を変更する制御である。 Change control is a control in which, before the humanoid robot 1 faces the luggage 100 and grasps it, the palm sensor 26 is used to photograph the actual appearance of the luggage 100 to obtain shape information (size), and based on a pre-stored suction pad size-shape tolerance table, it is determined whether the shape information (size) of the selected suction pad 24 is within the tolerance range, and if the shape information (size) is larger than a certain value and exceeds the tolerance range, the selected suction pad 24 is changed.
この変更制御を実施するに際し、人型ロボット1の情報処理装置14には、予め吸着パッドサイズ-形状許容範囲テーブル(表3参照)が格納されている。 When carrying out this change control, the information processing device 14 of the humanoid robot 1 stores a suction pad size-shape tolerance table (see Table 3) in advance.
ここで、人型ロボット1は、把持現場に向かい、荷物100と対峙したとき、掌センサ26で荷物100を撮影し、撮影した画像情報から形状情報(サイズ)を取得する。 Here, when the humanoid robot 1 approaches the grasping site and faces the luggage 100, it captures an image of the luggage 100 with the palm sensor 26 and obtains shape information (size) from the captured image information.
情報処理装置14では、取得した形状情報が、選択した吸着パッドサイズの許容範囲か否かを判断し、許容範囲外の場合に、吸着パッドサイズを変更する。 The information processing device 14 determines whether the acquired shape information is within the allowable range for the selected suction pad size, and if it is outside the allowable range, changes the suction pad size.
図6は、本実施の形態に係る人型ロボットの制御システムの一例の概略図である。制御システム10は、人型ロボットに搭載されるセンサ12と、高解像度カメラ及びMoPUを含む掌センサ26と、情報処理装置14とを備えている。 Figure 6 is a schematic diagram of an example of a control system for a humanoid robot according to this embodiment. The control system 10 includes a sensor 12 mounted on the humanoid robot, a palm sensor 26 including a high-resolution camera and a MoPU, and an information processing device 14.
センサ12は、人型ロボット1の周辺にある、人型ロボット1が作業する荷物100と腕部5、6との距離および角度を少なくとも表す情報を逐次取得する。センサ12としては、最高性能のカメラ、ソリッドステートLiDAR、マルチカラーレーザ同軸変位計、又はその他様々なセンサ群が採用され得る。また他には、センサ12としては、振動計、サーモカメラ、硬度計、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。 The sensor 12 sequentially acquires information indicative of at least the distance and angle between the luggage 100 around the humanoid robot 1 and the arms 5 and 6 on which the humanoid robot 1 is working. The sensor 12 may be a high-performance camera, a solid-state LiDAR, a multi-color laser coaxial displacement meter, or a variety of other sensors. Other examples of the sensor 12 include a vibration meter, a thermo camera, a hardness meter, a radar, a LiDAR, a high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance camera, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI weather forecast, high-precision multi-channel GPS, low-altitude satellite information, or long-tail incident AI data.
なお、センサ12は、上記の情報のほかに、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、又は赤外線等を検知する。他にセンサ12が検知する情報としては、人型ロボット1の重心移動、人型ロボット1が設置される床の材質の検知、外気温度の検知、外気湿度の検知、床の上下横斜め傾き角度の検知、水分量の検知等が挙げられる。センサ12は、これらの検知を例えばナノ秒毎に実施する。 In addition to the above information, the sensor 12 detects images, distance, vibration, heat, smell, color, sound, ultrasound, ultraviolet light, infrared light, etc. Other information detected by the sensor 12 includes the movement of the center of gravity of the humanoid robot 1, the material of the floor on which the humanoid robot 1 is placed, the outside air temperature, the outside air humidity, the up/down/side/diagonal inclination angle of the floor, the amount of moisture, etc. The sensor 12 performs these detections, for example, every nanosecond.
掌センサ26(高解像度カメラ及びMoPU)は、腕部5、6の把持部20に設けられるセンサであり、センサ12とは別に、荷物100を撮影するカメラ機能、及び、荷物100位置を特定する位置特定機能を有する。 The palm sensor 26 (high-resolution camera and MoPU) is a sensor provided on the gripping portion 20 of the arm portions 5 and 6, and has a camera function for photographing the luggage 100 and a positioning function for identifying the position of the luggage 100, separate from the sensor 12.
なお、1つのMoPU12を用いた場合には、荷物100の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、荷物100の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。 When one MoPU 12 is used, it is possible to obtain vector information of the movement of a point indicating the location of luggage 100 along each of two coordinate axes (x-axis and y-axis) in a three-dimensional orthogonal coordinate system. Using the principle of a stereo camera, two MoPUs 12 may be used to output vector information of the movement of a point indicating the location of luggage 100 along each of three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system. The z-axis is the axis along the depth direction (vehicle travel).
情報処理装置14は、情報取得部140と、制御部142と、情報蓄積部144とを備えている。 The information processing device 14 includes an information acquisition unit 140, a control unit 142, and an information storage unit 144.
情報取得部140は、センサ12及び掌センサ26(高解像度カメラ及びMoPU)によって検知された荷物100の情報を取得する。 The information acquisition unit 140 acquires information about the luggage 100 detected by the sensor 12 and the palm sensor 26 (high-resolution camera and MoPU).
制御部142は、情報取得部140がセンサ12から取得した情報とAI(Artificial intelligence)とを用いて、連結部4の回動動作、上下方向の移動動作および腕部5、6の動作等を制御する。 The control unit 142 uses the information acquired by the information acquisition unit 140 from the sensor 12 and AI (artificial intelligence) to control the rotational movement of the connecting unit 4, the movement of the arms 5 and 6, and the like.
また、制御部142は、情報取得部140が掌センサ26(高解像度カメラ及びMoPU)から取得した情報を用いて、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、当該外形や位置に応じて、掌側20Aを対峙させ、吸着パッド24により吸着し、かつ、3本の指部22A、22B、22Cで掴むように制御する(把持制御)。なお、外形情報に基づいて、荷物100の種類を把握して把持制御(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等)を選択してもよい。 The control unit 142 also uses the information acquired by the information acquisition unit 140 from the palm sensor 26 (high-resolution camera and MoPU) to determine the type (shape, size, hardness, etc.) and position of the luggage 100 in detail, and controls the palm side 20A to face the luggage 100 according to its external shape and position, so that the luggage 100 is attracted by the suction pad 24 and grasped with the three fingers 22A, 22B, and 22C (grasping control). Note that the type of luggage 100 may be identified based on the external shape information, and the gripping control may be selected (such as "suction" only, "grasping" only, or a combination of "suction" and "grasping").
例えば、制御部142は、全体の動作として、以下の各処理を実行する。
(1)棚及び床にある荷物100を拾い上げることが可能なように連結部4を駆動して、上半身部2を前傾または後傾させる。
(2)荷物100をつかむことが可能なように腕部5、6および把持部を駆動する。
(3)生産ラインの作業台の高さに合うように、上半身部2を脚部3に対して上下に駆動する。
(4)人型ロボット1の転倒を防ぐために、バランスを取る。
(5)人型ロボット1がカート等を押し進めることができるように、車輪7、8の駆動を制御する。
For example, the control unit 142 executes the following processes as an overall operation.
(1) The connecting portion 4 is driven to tilt the upper body portion 2 forward or backward so that the luggage 100 on a shelf or the floor can be picked up.
(2) The arms 5, 6 and the gripping portion are driven so that the luggage 100 can be grasped.
(3) The upper body 2 is driven up and down relative to the legs 3 to match the height of the workbench on the production line.
(4) Maintain balance to prevent the humanoid robot 1 from falling over.
(5) The drive of the wheels 7, 8 is controlled so that the humanoid robot 1 can push a cart or the like.
情報処理装置14は、例えば、床にある荷物100を拾う場合、図7に示されているフローチャートを繰り返し実行する。 For example, when picking up luggage 100 that is on the floor, the information processing device 14 repeatedly executes the flowchart shown in FIG. 7.
ステップS100において、情報取得部140は、センサ12によって検知された荷物100の情報を取得する。 In step S100, the information acquisition unit 140 acquires information about the luggage 100 detected by the sensor 12.
ステップS102において、制御部142は、ステップS100で取得された荷物100の情報とAIとを用いて、連結部4および腕部5、6を制御することにより、床にある荷物100を拾い上げる。 In step S102, the control unit 142 uses the information about the luggage 100 acquired in step S100 and AI to control the connecting unit 4 and the arms 5 and 6 to pick up the luggage 100 that is lying on the floor.
ステップS104において、制御部142は、拾った荷物100を所定位置へ移動する。 In step S104, the control unit 142 moves the picked-up luggage 100 to a specified position.
本実施の形態によれば、人型ロボット1は、上半身部2、脚部3および上半身部2と脚部3とを回動自在に連結する連結部4を備える。また、センサ12が取得した情報に基づいて連結部4の回動を制御するようにした。このため、人型ロボット1と荷物100との距離や角度を判断することができ、これにより、床にある荷物100を拾い上げるような動作を行うことができる。 According to this embodiment, the humanoid robot 1 comprises an upper body 2, legs 3, and a connecting part 4 that connects the upper body 2 and legs 3 in a freely rotatable manner. The rotation of the connecting part 4 is controlled based on information acquired by a sensor 12. This makes it possible to determine the distance and angle between the humanoid robot 1 and the luggage 100, thereby enabling the robot to perform an action such as picking up luggage 100 that is lying on the floor.
また、連結部4は上半身部2と脚部3との距離を変更可能であるため、生産ラインにおける作業台の高さに合うように、脚部3に対する上半身部2の上下方向の位置を調整することができる。 In addition, the connecting part 4 allows the distance between the upper body part 2 and the legs 3 to be changed, so that the vertical position of the upper body part 2 relative to the legs 3 can be adjusted to match the height of the workbench on the production line.
また、脚部3は、上半身部2が脚部3に対して前傾または後継した際に、人型ロボット1が転倒しないようにするためのバランス機能を有する。このため、生産ラインにある荷物100を押したり引いたりする作業を行った際の人型ロボット1の転倒を防止できる。したがって、転倒による人型ロボット1の故障、あるいは人型ロボット1の周囲にいる人物の怪我等を防止することができる。 The legs 3 also have a balancing function to prevent the humanoid robot 1 from falling over when the upper body 2 leans forward or backward relative to the legs 3. This makes it possible to prevent the humanoid robot 1 from falling over when performing work such as pushing or pulling a load 100 on a production line. This makes it possible to prevent breakdown of the humanoid robot 1 due to falling over, or injury to people around the humanoid robot 1.
(荷物100の把持制御)
図8は、図5の人型ロボット1の全体の動作に連動し、出庫業務及び入庫業務に必要な動作である、把持部20によって荷物100を把持する際の把持制御の手順を示すフローチャートである。把持制御は、基本的には、個々の人型ロボット1に搭載された情報処理装置14によって実行されるが、図1に示す保管ベース50に存在する人型ロボット1の把持制御を、保管ベース管理サーバー56で一括制御するようにしてもよい。
(Grabbing control of luggage 100)
Fig. 8 is a flow chart showing the procedure of gripping control when gripping a package 100 with the gripper 20, which is an operation necessary for warehousing and receiving operations and is linked to the overall operation of the humanoid robot 1 in Fig. 5. The gripping control is basically executed by the information processing device 14 mounted on each humanoid robot 1, but the gripping control of the humanoid robots 1 present in the storage base 50 shown in Fig. 1 may be centrally controlled by a storage base management server 56.
ステップ150では、荷物100の把持の指示があったか否かを判断し、肯定判定されると、ステップ152へ移行して、人型ロボット1を移動させ(例えば、腕部5、6を動作させ)、対象の荷物100に掌側20Aを対峙させ、ステップ154へ移行する。 In step 150, it is determined whether or not an instruction to grasp the luggage 100 has been given. If a positive determination is made, the process proceeds to step 152, where the humanoid robot 1 is moved (e.g., the arms 5 and 6 are operated) so that the palm side 20A faces the target luggage 100, and the process proceeds to step 154.
次のステップ154では、荷物100の把持のための作業を選択する。例えば、「吸着」のみ、「掴み」のみ、「吸着」と「掴み」の併用等から選択し、次いで、ステップ156へ移行して、荷物100の属性に応じた、把持部20、吸着パッド24の選択処理(詳細は、図9参照)を実行し、ステップ158へ移行する。 In the next step 154, an operation for gripping the luggage 100 is selected. For example, a selection is made from "suction" only, "grabbing" only, or a combination of "suction" and "grabbing". Then, the process proceeds to step 156, where a selection process for the gripping unit 20 and the suction pad 24 is executed according to the attributes of the luggage 100 (see FIG. 9 for details), and the process proceeds to step 158.
ステップ158では、掌側20Aを対向させて、掌センサ26で検出した情報(高解像度カメラで撮影した画像及びMoPUで検出した位置情報等)から、荷物100の情報を検出する。 In step 158, the palm side 20A is turned toward the palm sensor 26, and information about the luggage 100 is detected from the information detected by the palm sensor 26 (such as the image captured by the high-resolution camera and the position information detected by the MoPU).
次のステップ160では、掌センサ26による検出情報を解析して、荷物100の種類(形状、大きさ、硬さ等)及び位置を詳細に把握し、ステップ162へ移行する。 In the next step 160, the information detected by the palm sensor 26 is analyzed to obtain a detailed understanding of the type (shape, size, hardness, etc.) and location of the luggage 100, and the process proceeds to step 162.
ステップ162では、予め情報処理装置14に格納されている吸着パッドサイズ-形状許容範囲テーブル(表3参照)を読み出し、次いで、ステップ164へ移行して、選択されている吸着パッド24のサイズが、把持する荷物100が許容範囲か否かを判断する。 In step 162, the suction pad size-shape tolerance table (see Table 3) previously stored in the information processing device 14 is read, and then the process proceeds to step 164 to determine whether the size of the selected suction pad 24 is within the tolerance range for the luggage 100 to be grasped.
このステップ164で否定判定された場合は、ステップ166へ移行して、表3に基づいて、吸着パッド24のサイズを変更して、ステップ168へ移行する。 If the result of step 164 is negative, the process proceeds to step 166, where the size of the suction pad 24 is changed based on Table 3, and the process proceeds to step 168.
また、ステップ164で肯定判定された場合は、変更の必要はないので、ステップ168へ移行する。 Also, if the answer is yes in step 164, no changes are necessary, so proceed to step 168.
ステップ168では、荷物100の把持(「吸着」のみ、「掴み」のみ、「吸着」と「掴み」)を実行する。 In step 168, grasping of the luggage 100 is performed ("suction" only, "grab" only, "suction" and "grab").
次のステップ170では、荷物100の把持が成功したか否かを判定し、肯定判定された場合は、把持した荷物100を所定の場所へ運び、ステップ150へ移行して、次の荷物100の把持の指示を待つ。 In the next step 170, it is determined whether the gripping of the luggage 100 was successful, and if the determination is affirmative, the gripped luggage 100 is carried to a predetermined location, and the process proceeds to step 150 to wait for an instruction to grip the next luggage 100.
また、ステップ170で否定判定された場合は、ステップ172へ移行して、エラー処理(例えば、リトライ又はキャンセル等)を実行し、ステップ150へ戻る。 If the result of step 170 is negative, the process proceeds to step 172, where error processing (e.g., retry or cancel) is performed, and the process returns to step 150.
(把持部、吸着パッド選択処理)
図9は、図8のステップ156で実行される把持部、吸着パッドの選択処理ルーチンを示す制御フローチャートである。
(Grip and suction pad selection process)
FIG. 9 is a control flow chart showing the gripper/suction pad selection processing routine executed in step 156 of FIG.
図9に示される如く、ステップ170では、荷物100は特大サイズか否かを判断する。このステップ170で肯定判定(特大サイズ確定)されると、ステップ172へ移行して、右手側の把持部20Rを選択し、かつ当該把持部200Rに取り付けられた4個の吸着パッド24を選択し、ステップ190へ移行する。 As shown in FIG. 9, in step 170, it is determined whether the luggage 100 is extra-large. If the determination in step 170 is positive (extra-large size is confirmed), the process proceeds to step 172, where the gripper 20R on the right side is selected, and the four suction pads 24 attached to the gripper 200R are selected, and the process proceeds to step 190.
また、ステップ170で否定判定された場合は、ステップ174へ移行して、左手側の把持部20Lを選択し、ステップ176へ移行する。 If the result of step 170 is negative, the process proceeds to step 174, where the left-hand grip 20L is selected, and the process proceeds to step 176.
ステップ176では、荷物100は大サイズか否かを判断する。このステップ176で肯定判定(大サイズ確定)されると、ステップ178へ移行して、把持部20Lの掌側20Aの4個の吸着パッド24を選択し、ステップ190へ移行する。 In step 176, it is determined whether the baggage 100 is large. If the determination in step 176 is positive (determined to be large), the process proceeds to step 178, where the four suction pads 24 on the palm side 20A of the gripping portion 20L are selected, and the process proceeds to step 190.
また、ステップ176で否定判定された場合は、ステップ180へ移行する。 Also, if the result of step 176 is negative, the process proceeds to step 180.
ステップ180では、荷物100は中サイズか否かを判断する。このステップ180で肯定判定(中サイズ確定)されると、ステップ182へ移行して、把持部200Lの指部22B、22Cに取り付けられた2個の大径サイズの吸着パッド24Yを選択し、ステップ190へ移行する。 In step 180, it is determined whether the luggage 100 is medium-sized. If the determination in step 180 is affirmative (medium size confirmed), the process proceeds to step 182, where the two large-diameter suction pads 24Y attached to the fingers 22B and 22C of the gripper 200L are selected, and the process proceeds to step 190.
また、ステップ180で否定判定された場合は、ステップ184へ移行する。 Also, if the result of step 180 is negative, the process proceeds to step 184.
ステップ184では、荷物100は小サイズか否かを判断する。このステップ184で肯定判定(小サイズ確定)されると、ステップ186へ移行して、把持部200Lの指部22B又は指部22Cに取り付けられた何れか1個の大径サイズの吸着パッド24Yを選択し、ステップ190へ移行する。 In step 184, it is determined whether the luggage 100 is small or not. If the determination in step 184 is affirmative (small size confirmed), the process proceeds to step 186, where one of the large-diameter suction pads 24Y attached to the finger portion 22B or finger portion 22C of the gripper 200L is selected, and the process proceeds to step 190.
また、ステップ184で否定判定(特小サイズ確定)されると、ステップ188へ移行して、把持部20Lの指部22Aに取り付けられた小径サイズの吸着パッド24Xを選択し、ステップ190へ移行する。 Also, if a negative judgment is made in step 184 (extra small size is confirmed), the process proceeds to step 188, where the small diameter suction pad 24X attached to the finger portion 22A of the gripper 20L is selected, and the process proceeds to step 190.
ステップ190では、指部22A、22B、22Cによる掴みの必要があるか否かを判断し、肯定判定されると、ステップ192へ移行して、左手側の把持部20Lの3本の指部22A、22B、22Cによる掴み動作を選択し、このルーチンは終了する。また、ステップ190で否定判定された場合は、このルーチンは終了する。 In step 190, it is determined whether or not grasping with the fingers 22A, 22B, and 22C is necessary. If the determination is affirmative, the process proceeds to step 192, where a grasping operation with the three fingers 22A, 22B, and 22C of the gripping portion 20L on the left hand is selected, and the routine ends. If the determination is negative in step 190, the routine ends.
以上、本実施の形態によれば、把持部20に3本の指部22A、22B、22Cを設け、把持部20の掌側20Aと、指部22A、22B、22Cに、複数の吸着パッド24をと取り付け、吸着パッド24は、例えば、エアー吸着構造で、荷物100を吸着し、かつ、指部22A、22B、22Cを曲げることにより、荷物100を掴むことができる。 As described above, according to this embodiment, the gripping portion 20 is provided with three fingers 22A, 22B, and 22C, and a plurality of suction pads 24 are attached to the palm side 20A of the gripping portion 20 and to the fingers 22A, 22B, and 22C. The suction pads 24, for example, have an air suction structure, and can suction the luggage 100, and the luggage 100 can be grasped by bending the fingers 22A, 22B, and 22C.
また、荷物100の属性(形状、重さ等)に基づいて分類し、分類した結果で、把持部20の選択、及び、吸着パッド24の選択を行うことで、単一の人型ロボット1によって、様々な種類の荷物100をピッキングすることが可能となる。言い換えれば、荷物100の属性毎に異なるロボットを選択して、出動させる必要がなく、ピッキング作業の効率化を図ることができる。 Furthermore, by classifying the luggage 100 based on its attributes (shape, weight, etc.) and selecting the gripper 20 and the suction pad 24 based on the classification results, it becomes possible for a single humanoid robot 1 to pick various types of luggage 100. In other words, there is no need to select and dispatch a different robot for each attribute of the luggage 100, and the efficiency of the picking work can be improved.
掌側20Aには、高解像度カメラ及びMoPUを含む掌センサ26を取り付け、上記の構造の把持部20を人型ロボット1の腕部5、6に装着することにより、吸着面によりモノを確実にピックすることができ、人型ロボット1の動きが早くても荷物100を把持部20から落とさずに運ぶことができる。 A palm sensor 26 including a high-resolution camera and MoPU is attached to the palm side 20A, and the gripper 20 with the above structure is attached to the arms 5 and 6 of the humanoid robot 1, so that objects can be picked up reliably by the suction surface, and the baggage 100 can be carried without dropping from the gripper 20 even if the humanoid robot 1 moves quickly.
また、掌センサ26(高解像度カメラ及びMoPU)が掌側20Aに搭載されているので、高精度に荷物100を捉えることができ、微小な動きをする作業にも対応することができる。 In addition, the palm sensor 26 (high-resolution camera and MoPU) is mounted on the palm side 20A, so the baggage 100 can be captured with high accuracy, and tasks that require minute movements can also be handled.
さらに、非常に柔らかく壊れやすいものは、吸着パッド24を使わずに、指部22A、22B、22Cの動きにより掴むこともできるし、掴む力を調整することにより、柔らかい荷物100の破損等を防止することかできる。 Furthermore, very soft and fragile items can be grasped by the movement of the fingers 22A, 22B, and 22C without using the suction pad 24, and damage to the soft cargo 100 can be prevented by adjusting the gripping force.
(保管ベースでの出庫業務及び入庫業務作業の制御系)
図10は、保管ベース管理サーバー56と人型ロボット1の各情報処理装置14との連携で実行される、出庫業務及び入庫業務を実行するための制御系の機能ブロック図である。
(Control system for outgoing and incoming work on a storage basis)
FIG. 10 is a functional block diagram of a control system for executing a warehousing operation and a warehousing operation, which is executed in cooperation with the storage base management server 56 and each information processing device 14 of the humanoid robot 1.
保管ベース管理サーバー56は、作業状況管理部62を備えている。作業状況管理部62は、業務スケジュールデータベース64、荷物属性情報データベース72、及び通信I/F66と接続されている。 The storage base management server 56 includes a work status management unit 62. The work status management unit 62 is connected to a business schedule database 64, a baggage attribute information database 72, and a communication I/F 66.
通信I/F66は、人型ロボット1の情報処理装置14、及び搬送装置54の制御装置54Aとの間で通信し、情報のやりとりを行う。 The communication I/F 66 communicates between the information processing device 14 of the humanoid robot 1 and the control device 54A of the transport device 54, and exchanges information.
作業状況管理部62では、業務スケジュールデータベース64から逐次、業務スケジュールに関する情報を取得すると共に、通信I/F66を介して、保管ベース50で業務を実行している制御対象(人型ロボット1の情報処理装置14、搬送装置54の制御装置54A)の業務進捗情報を取得することで、次の業務の割り当て指示を含む、業務スケジュールを管理する。 The work status management unit 62 sequentially acquires information related to the work schedule from the work schedule database 64, and also acquires work progress information of the control objects (information processing device 14 of the humanoid robot 1, control device 54A of the transport device 54) performing work on the storage base 50 via the communication I/F 66, thereby managing the work schedule, including instructions for allocating the next work.
通信I/F66は、人型ロボット作業状況情報取得部68に接続されており、人型ロボット1が業務しているときの作業状況(例えば、ピッキングステーション58の位置、間口58Aに配置されている棚52の識別、左右何れの把持部20を使用しているか等)に関する情報を取得する。 The communication I/F 66 is connected to the humanoid robot work status information acquisition unit 68, and acquires information regarding the work status when the humanoid robot 1 is working (e.g., the position of the picking station 58, the identification of the shelf 52 located in the opening 58A, whether the left or right gripper 20 is being used, etc.).
言い換えれば、人型ロボット作業状況情報取得部68は、通常の業務スケジュールを割り当てるには重要ではないが、業務として出庫業務又は入庫業務において、具体的な作業の詳細情報を取得する。 In other words, the humanoid robot work status information acquisition unit 68 acquires detailed information about specific tasks during outbound or inbound work, which is not important for allocating a regular work schedule.
人型ロボット作業情報取得部68は、作業状況管理部62に接続されている The humanoid robot work information acquisition unit 68 is connected to the work status management unit 62.
作業状況管理部62では、人型ロボット作業情報取得部68からの作業状況情報、業務スケジュールデータベース64からの業務スケジュール情報、及び、荷物属性情報データベース72からの荷物属性情報を総合的に解析して、現在の進捗とスケジュールとの照合を図り、全体を管理する。 The work status management unit 62 comprehensively analyzes the work status information from the humanoid robot work information acquisition unit 68, the work schedule information from the work schedule database 64, and the baggage attribute information from the baggage attribute information database 72, and compares the current progress with the schedule to provide overall management.
作業状況管理部62では、通常では、業務中の人型ロボット1から業務終了通知を受けてから次の業務を割り当てるが、場合によっては、当該業務中の人型ロボット1に対して、業務を割り当てる。 The work status management unit 62 normally assigns the next task after receiving a task completion notification from the humanoid robot 1 currently working, but in some cases, it assigns a task to the humanoid robot 1 currently working.
より具体的には、特定のピッキングステーション58の間口58Aに、特定の棚52が配置され、当該棚52の収容スペース52Aから荷物100を把持してピッキング業務を実行している状況を想定し、同一の特定の棚52の収容スペースから荷物100をピッキング可能な場合に、そのままの位置で(業務終了の下、ホームポジション等に戻らずに)業務継続を指示することが可能である。 More specifically, assuming a situation in which a specific shelf 52 is placed at the frontage 58A of a specific picking station 58, and a picking operation is being performed by grasping a package 100 from the storage space 52A of the shelf 52, if the package 100 can be picked from the storage space of the same specific shelf 52, it is possible to instruct the system to continue operations in the current position (without returning to a home position or the like upon completion of operations).
(通常業務割り当て指示作業の流れ)
図11は、保管ベース50(図1参照)で実行される、保管ベース管理サーバー56による、業務スケジュールに基づく通常業務指示制御のメインルーチンを示すフローチャートである。
(Normal work assignment instruction flow)
FIG. 11 is a flowchart showing a main routine of normal work instruction control based on a work schedule by the storage base management server 56, which is executed in the storage base 50 (see FIG. 1).
ステップ200では、業務スケジュールを読み出し、次いで、ステップ202へ移行して、割り当て処理を実行する。ステップ202の割り当て処理は、何れの棚52を、何れの搬送装置54で、何れのピッキングステーション58に搬送し、何れの人型ロボット1に出庫業務又は入庫業務を実行させるかを記したワークシート等を用いることで実行可能である。 In step 200, the work schedule is read, and then the process proceeds to step 202, where the allocation process is performed. The allocation process in step 202 can be performed using a worksheet or the like that indicates which shelf 52 is to be transported to which picking station 58 by which transport device 54, and which humanoid robot 1 is to perform the outbound or inbound work.
次のステップ204では、搬送装置54を対象として、棚52の搬送を指示し、次いで、ステップ206では、人型ロボット1を対象として、出庫業務又は入庫業務を指示し、ステップ208へ移行する。 In the next step 204, the transport device 54 is instructed to transport the shelf 52, and then in step 206, the humanoid robot 1 is instructed to perform a shipping or receiving operation, and the process proceeds to step 208.
ステップ208では、業務終了通知があったか否かを判断し、肯定判定された場合は、ステップ210へ移行して、作業指示対象を確認し、次いで、ステップ212へ移行して、作業指示対象毎の業務進捗ログを更新して、ステップ214へ移行する。 In step 208, it is determined whether or not a work completion notification has been received. If the determination is affirmative, the process proceeds to step 210, where the work instruction object is confirmed, and then to step 212, where the work progress log for each work instruction object is updated, and the process proceeds to step 214.
また、ステップ208で業務終了通知がない場合は、継続して、他の業務を遂行するべく、ステップ214へ移行する。 Also, if there is no notification of the end of the business in step 208, the process proceeds to step 214 to continue with other business operations.
すなわち、業務スケジュールに設定された順序に従い、随時、割り当て処理をしていく中で、それぞれの業務の進捗を監視することで、限られた数の搬送装置54、及び限られた数の人型ロボット1による業務の効率を向上することができる。 In other words, by monitoring the progress of each task as it is assigned according to the order set in the task schedule, it is possible to improve the efficiency of tasks performed by a limited number of transport devices 54 and a limited number of humanoid robots 1.
図12は、情報処理装置14として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施の形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施の形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、および/又はコンピュータ1200に、本実施の形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつか又は全てに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 12 shows an example of a hardware configuration of a computer 1200 functioning as an information processing device 14. A program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of the device according to the present embodiment, or to execute operations or one or more "parts" associated with the device according to the present embodiment, and/or to execute a process or steps of the process according to the present embodiment. Such a program can be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.
本実施の形態によるコンピュータ1200は、CPU1212、RAM1214、およびグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、およびICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブおよびDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブおよびソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230およびキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220. The DVD drive may be a DVD-ROM drive, a DVD-RAM drive, or the like. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes input/output units such as a ROM 1230 and a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラムおよびデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/又はプログラムおよびデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein a boot program, etc., executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200. I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card. The programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212. The information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 1200 and an external device, CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 1212, communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本発明の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The CPU 1212 may execute various types of processing on the data read from the RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout the present invention and specified by the instruction sequence of the program, and write back the results to the RAM 1214. The CPU 1212 may also search for information in a file, database, etc. in the recording medium. For example, when a plurality of entries, each having an attribute value of a first attribute associated with an attribute value of a second attribute, are stored in the recording medium, the CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.
本実施の形態におけるフローチャートおよびブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階および「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/又はアナログハードウェア回路を含んでよく、集積回路(IC)および/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、およびプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、および他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of the present embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuits. Programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, to cause the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, to execute the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.
1 人型ロボット、2 上半身部、3 脚部、4 連結部、5、6 腕部、7、8 車輪、10 制御システム、12 センサ、14 情報処理装置、20(20L、20R) 把持部、20A 掌側、20B 本体部、22A、22B、22C 指部、24(24X、24Y) 吸着パッド、24A パッド部、24B ニップル、26 掌センサ、100 荷物、50 保管ベース、52 棚、52A 収容スペース、54 搬送装置、56 保管ベース管理サーバー、58 ピッキングステーション、58A 間口、58B 作業スペース、60 箱、 62 作業状況管理部、64 業務スケジュールデータベース、66 通信I/F、68 人型ロボット作業状況情報取得部、72 荷物属性情報データベース、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 1 Humanoid robot, 2 Upper body, 3 Legs, 4 Connecting part, 5, 6 Arms, 7, 8 Wheels, 10 Control system, 12 Sensor, 14 Information processing device, 20 (20L, 20R) Grip part, 20A Palm side, 20B Main body, 22A, 22B, 22C Finger part, 24 (24X, 24Y) Suction pad, 24A Pad part, 24B Nipple, 26 Palm sensor, 100 Luggage, 50 Storage base, 52 Shelf, 52A Storage space, 54 Transport device, 56 Storage base management server, 58 Picking station, 58A Frontage, 58B Work space, 60 Box, 62 Work status management unit, 64 Business schedule database, 66 Communication I/F, 68 Humanoid robot work status information acquisition unit, 72 Luggage attribute information database, 1200 Computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 storage device, 1230 ROM, 1240 input/output chip
Claims (5)
前記第1把持部の前記掌部及び指部毎に選択的に設けられ、異なる吸着面積で前記対象物を吸着して把持することが可能な複数種類の吸着パッドと、
前記第1把持部及び前記第2把持部に設けられ、少なくとも前記対象物の形状情報を検出するセンサ部と、
事前に登録された前記対象物の重さ情報に基づいて、前記対象物を把持する機能として、前記第1把持部で把持する第1機能、前記第2把持部で把持する第2機能、前記第1機能及び前記第2機能を併用する第3機能の何れかを選択する選択部と、
前記選択部で選択された機能に基づき、前記対象物を把持する動作を制御する制御部と、
前記制御部による把持動作における前記対象物への接近動作中に前記センサ部で検出される当該対象物の形状情報が、前記選択部で選択された前記対象物を把持する機能の許容範囲か否かを判定する判定部と、
前記判定部で許容範囲外と判定された場合に、前記対象物を把持する機能を変更する変更部と、
を有するロボットの制御システム。 A control system for a robot capable of grasping an object using a first grasping unit having a palm portion serving as a base for grasping the object and a plurality of fingers attached to the palm portion, and a second grasping unit having a holder capable of grasping and holding the object,
a plurality of types of suction pads selectively provided for the palm portion and the finger portions of the first gripping portion, the suction pads being capable of suctioning and gripping the object with different suction areas;
a sensor unit provided on the first gripping unit and the second gripping unit, the sensor unit detecting at least shape information of the object;
a selection unit that selects, as a function for gripping the object, one of a first function for gripping the object with the first gripping unit, a second function for gripping the object with the second gripping unit, and a third function for using both the first function and the second function, based on weight information of the object that has been registered in advance;
A control unit that controls an operation of gripping the object based on the function selected by the selection unit;
a determination unit that determines whether or not shape information of the object detected by the sensor unit during an approach operation to the object in a gripping operation by the control unit is within an allowable range of a function of gripping the object selected by the selection unit;
a change unit that changes a function of gripping the object when the determination unit determines that the object is outside the allowable range; and
A robot control system having the following:
前記制御部は、
前記対象物を、前記重さ情報に基づいて、重さ分類サイズとしての、特大サイズ、大サイズ、中サイズ、小サイズ、及び特小サイズに分類し、
前記対象物が、前記特大サイズの場合は、前記第2把持部に設けられた保持体を用いて把持し、
前記対象物が、前記大サイズの場合は、前記掌部に設けられた吸着パッドを用いて把持し、
前記対象物が、前記中サイズの場合は、前記第2の指部及び前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、
前記対象物が、前記小サイズの場合は、前記第2の指部又は前記第3の指部の先端部に設けられた前記大径の吸着パッドを用いて把持し、
前記対象物が、前記特小サイズの場合は、前記第1の指部の先端部に設けられた前記小径の吸着パッドを用いて把持することを選択する、
請求項1記載のロボットの制御システム。 the first gripping portion has three fingers, a suction pad having a smaller diameter than the other suction pads is attached to a tip of the first finger, and suction pads having a larger diameter than the other suction pads are attached to tip portions of the second finger and the third finger,
The control unit is
classifying the objects into weight classification sizes of extra large, large, medium, small, and extra small based on the weight information;
When the object is the extra-large size, the object is gripped using a holder provided in the second gripping portion,
When the object is a large size, the object is grasped using a suction pad provided on the palm portion,
When the object is of a medium size, the object is gripped using the large-diameter suction pads provided at the tip portions of the second finger portion and the third finger portion;
When the object is small, the object is gripped using the large-diameter suction pad provided at the tip of the second finger portion or the third finger portion;
When the object is the extra-small size, the object is selected to be grasped using the small-diameter suction pad provided at the tip of the first finger portion.
The control system for the robot according to claim 1.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP23900590.3A EP4631680A1 (en) | 2022-12-07 | 2023-12-01 | Control system for robot and control program for robot |
| PCT/JP2023/043189 WO2024122475A1 (en) | 2022-12-07 | 2023-12-01 | Control system for robot and control program for robot |
| CN202380083632.6A CN120435366A (en) | 2022-12-07 | 2023-12-01 | Robot control system and robot control program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022195945 | 2022-12-07 | ||
| JP2022195945 | 2022-12-07 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024082211A true JP2024082211A (en) | 2024-06-19 |
Family
ID=91523920
Family Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023026590A Pending JP2024082207A (en) | 2022-12-07 | 2023-02-22 | Robot control system, robot control program |
| JP2023029478A Pending JP2024082209A (en) | 2022-12-07 | 2023-02-28 | Robot control system, robot control program |
| JP2023036898A Pending JP2024082210A (en) | 2022-12-07 | 2023-03-09 | Robot control system, robot control program |
| JP2023040062A Pending JP2024082211A (en) | 2022-12-07 | 2023-03-14 | Robot control system, robot control program |
Family Applications Before (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023026590A Pending JP2024082207A (en) | 2022-12-07 | 2023-02-22 | Robot control system, robot control program |
| JP2023029478A Pending JP2024082209A (en) | 2022-12-07 | 2023-02-28 | Robot control system, robot control program |
| JP2023036898A Pending JP2024082210A (en) | 2022-12-07 | 2023-03-09 | Robot control system, robot control program |
Country Status (1)
| Country | Link |
|---|---|
| JP (4) | JP2024082207A (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119871458A (en) * | 2025-03-26 | 2025-04-25 | 华侨大学 | Motion control system and method for intelligent robot |
-
2023
- 2023-02-22 JP JP2023026590A patent/JP2024082207A/en active Pending
- 2023-02-28 JP JP2023029478A patent/JP2024082209A/en active Pending
- 2023-03-09 JP JP2023036898A patent/JP2024082210A/en active Pending
- 2023-03-14 JP JP2023040062A patent/JP2024082211A/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024082209A (en) | 2024-06-19 |
| JP2024082210A (en) | 2024-06-19 |
| JP2024082207A (en) | 2024-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6738112B2 (en) | Robot system control device and control method | |
| US11905116B2 (en) | Controller and control method for robot system | |
| US11077554B2 (en) | Controller and control method for robotic system | |
| JP7728409B2 (en) | Systems, methods and computer program products | |
| US12240713B2 (en) | Robotic palletization system with variable conveyor height | |
| JP7362755B2 (en) | Robotic palletization and depalletization of multiple item types | |
| US12179369B2 (en) | Handling system and control method | |
| JP2020196121A (en) | Controller and control method for robotic system | |
| CN108349083A (en) | Sorting system and method for providing sorting of various objects | |
| US20240149460A1 (en) | Robotic package handling systems and methods | |
| CN115703238A (en) | System and method for robotic body placement | |
| JP2023131146A (en) | Non-transitory computer readable media, systems and methods for robotic system with object handling | |
| JP2025133826A (en) | Handling device, control device, and control program | |
| CN118613354A (en) | System and method for grasp planning for a robotic manipulator | |
| US20250010473A1 (en) | Handling system, information processing system, information processing method, and storage medium | |
| WO2024040199A2 (en) | Robotic package handling systems and methods | |
| JP2024082211A (en) | Robot control system, robot control program | |
| WO2024122516A1 (en) | Robot control system, robot hand, robot control program, information management program, and information processing program | |
| WO2024122475A1 (en) | Control system for robot and control program for robot | |
| JP2024082201A (en) | Robot control system, robot control program | |
| JP2025010982A (en) | Robot control system, robot control program | |
| JP2024101511A (en) | Robot control system, robot control program | |
| TWI791332B (en) | Handling machine control method, handling machine control system and control host | |
| US20230381822A1 (en) | Information processing device, information processing method, computer-readable storage medium, and system | |
| US20250187199A1 (en) | Robot control apparatus and robot control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250910 |