JP2019059004A - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP2019059004A JP2019059004A JP2017187414A JP2017187414A JP2019059004A JP 2019059004 A JP2019059004 A JP 2019059004A JP 2017187414 A JP2017187414 A JP 2017187414A JP 2017187414 A JP2017187414 A JP 2017187414A JP 2019059004 A JP2019059004 A JP 2019059004A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- recognition sensor
- robot
- component
- automatic conveyance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0084—Programme-controlled manipulators comprising a plurality of manipulators
- B25J9/0087—Dual arms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】効率よく部品キットを作成することができるロボットシステムを提供すること。【解決手段】自動搬送装置と、前記自動搬送装置に搭載されたロボットアームと、前記ロボットアームに配置された物体認識センサーと、環境認識センサーと、前記自動搬送装置に配置され、部品キットを複数載置可能な載置部と、前記物体認識センサーの認識結果に基づいて、部品収納部から前記部品を取り出して前記載置部上に複数の部品キットを作成するように前記ロボットアームの制御を行った後、前記環境認識センサーの認識結果に基づいて、作業台へ向けて移動するように前記自動搬送装置の制御を行い、前記物体認識センサーの認識結果に基づいて、複数の部品キットを前記載置部上から前記作業台へ載せ換えるように前記ロボットアームの制御を行う制御部と、を備えることを特徴とするロボットシステム。【選択図】図3
Description
本発明は、ロボットシステムに関する。
ロボットアームを有するロボットを用いて複数の部品からなる部品キットを作成するロボットシステムが知られている(例えば、特許文献1参照)。例えば、特許文献1に記載のロボットシステムでは、ロボットが、複数の部品が収納された部品収納部から、製品を生産するために必要な複数の部品を1つずつ取り出し、部品収納部から離れた支持台上で部品キットを形成する。
しかし、特許文献1に記載のロボットシステムは、部品収納部から離れた支持台上で部品キットの作成を行うため、作成すべき部品キットの数および部品キットを構成する部品の数に応じて、ロボットが部品収納部と支持台との間を往復する回数が多くなってしまい、作業効率が悪いという課題がある。
本発明の目的は、効率よく部品キットを作成することができるロボットシステムを提供することにある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例または形態として実現することが可能である。
本適用例に係るロボットシステムは、自動で移動可能な自動搬送装置と、
前記自動搬送装置に搭載され、対象物に対して作業を行うロボットアームと、
前記ロボットアームに配置され、前記対象物を認識する物体認識センサーと、
前記自動搬送装置が移動する方向の環境を認識する環境認識センサーと、
前記自動搬送装置に配置され、部品キットを複数載置可能な載置部と、
前記物体認識センサーの認識結果に基づいて、部品を収納している部品収納部から複数の前記部品を取り出して前記載置部上に複数の前記部品キットを作成するように前記ロボットアームの制御を行った後、前記環境認識センサーの認識結果に基づいて、作業台へ向けて移動するように前記自動搬送装置の制御を行い、前記物体認識センサーの認識結果に基づいて、前記複数の前記部品キットを前記載置部上から前記作業台へ載せ換えるように前記ロボットアームの制御を行う制御部と、
を備えることを特徴とする。
前記自動搬送装置に搭載され、対象物に対して作業を行うロボットアームと、
前記ロボットアームに配置され、前記対象物を認識する物体認識センサーと、
前記自動搬送装置が移動する方向の環境を認識する環境認識センサーと、
前記自動搬送装置に配置され、部品キットを複数載置可能な載置部と、
前記物体認識センサーの認識結果に基づいて、部品を収納している部品収納部から複数の前記部品を取り出して前記載置部上に複数の前記部品キットを作成するように前記ロボットアームの制御を行った後、前記環境認識センサーの認識結果に基づいて、作業台へ向けて移動するように前記自動搬送装置の制御を行い、前記物体認識センサーの認識結果に基づいて、前記複数の前記部品キットを前記載置部上から前記作業台へ載せ換えるように前記ロボットアームの制御を行う制御部と、
を備えることを特徴とする。
このようなロボットシステムによれば、部品収納部から複数の部品をそれぞれ取り出して載置部上に複数の部品キットを作成した後、作業台へ向けて移動し、複数の部品キットを載置部上から作業台へ載せ換えるため、部品収納部から複数の部品をそれぞれ取り出して直接作業台上に複数の部品キットを作成する場合に比べて、自動搬送装置が部品収納部と作業台との間を往復移動する回数を少なくすることができる。そのため、効率よく部品キットを作成することができる。
本適用例のロボットシステムでは、前記物体認識センサーは、
前記対象物に対して縞状のパターン光を投影する投影部と、
前記パターン光を撮像する撮像部と、
前記撮像部の撮像結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部からのレーザーを前記対象物に向けて反射して走査する光スキャナーと、を有することが好ましい。
これにより、小型な物体認識センサーを実現することができる。
前記対象物に対して縞状のパターン光を投影する投影部と、
前記パターン光を撮像する撮像部と、
前記撮像部の撮像結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部からのレーザーを前記対象物に向けて反射して走査する光スキャナーと、を有することが好ましい。
これにより、小型な物体認識センサーを実現することができる。
本適用例のロボットシステムでは、前記投影部は、
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部を有することが好ましい。
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部を有することが好ましい。
これにより、温度変化が生じても、安定した振幅および周波数で光スキャナーの駆動を行うことができる。そのため、温度変化による特性変化を低減するための回路が不要となり、物体認識センサーの小型化を図ることができる。
本適用例のロボットシステムでは、前記駆動信号の波形は、正弦波状であることが好ましい。
これにより、駆動信号の生成が容易となる。また、駆動信号の周波数成分に光スキャナーの駆動周波数以外の周波数が含まれることを低減し、光スキャナーの非共振駆動を安定して行うことができる。
本適用例のロボットシステムでは、前記自動搬送装置は、無軌道で移動可能であることが好ましい。
これにより、自動搬送装置の走行を案内するためのレール等の設備が不要または簡素となるため、設備費を安価にすることができる。
本適用例のロボットシステムでは、前記制御部は、前記環境認識センサーの認識結果に基づいて、前記自動搬送装置の移動ルート情報を作成し、前記移動ルート情報に基づいて前記自動搬送装置を走行制御することが好ましい。
これにより、自動搬送装置の移動中に環境認識センサーによる環境認識を行わなくても、走行ルート情報に基づいて自動搬送装置を走行させることができる。
本適用例のロボットシステムでは、前記制御部は、前記物体認識センサーの認識結果に基づいて、前記自動搬送装置の移動または姿勢変更を行うことが好ましい。
これにより、自動搬送装置の位置調整を高精度に行うことができる。
これにより、自動搬送装置の位置調整を高精度に行うことができる。
本適用例のロボットシステムでは、前記制御部は、前記部品収納部にある前記部品の姿勢が変更されるように、前記ロボットアームを駆動可能であることが好ましい。
これにより、部品の姿勢がロボットアームにより取り出しにくい状態にある場合、当該部品の姿勢を取り出しやすい状態に変更することができる。
以下、本発明のロボットシステムを添付図面に示す好適な実施形態に基づいて詳細に説明する。
<第1実施形態>
図1は、本発明の第1実施形態に係るロボットシステムを概略的に示す斜視図である。図2は、図1に示すロボットシステムの制御系を示すブロック図である。図3は、図1に示すロボットシステムが備える物体認識センサーの模式図である。図4は、図3に示す物体認識センサーが備える投影部が生成する投影パターン(パターン光)の明暗状態を示す図である。図5は、図3に示す物体認識センサーが備える光スキャナーの斜視図である。図6は、図3に示す物体認識センサーが備えるスキャナー駆動部からの駆動信号の波形を示す図である。図7は、図3に示す物体認識センサーが備える光源駆動部から出力される変調信号の波形(図中下段)および可動ミラー部の振れ角(図中上段)を示す図である。
図1は、本発明の第1実施形態に係るロボットシステムを概略的に示す斜視図である。図2は、図1に示すロボットシステムの制御系を示すブロック図である。図3は、図1に示すロボットシステムが備える物体認識センサーの模式図である。図4は、図3に示す物体認識センサーが備える投影部が生成する投影パターン(パターン光)の明暗状態を示す図である。図5は、図3に示す物体認識センサーが備える光スキャナーの斜視図である。図6は、図3に示す物体認識センサーが備えるスキャナー駆動部からの駆動信号の波形を示す図である。図7は、図3に示す物体認識センサーが備える光源駆動部から出力される変調信号の波形(図中下段)および可動ミラー部の振れ角(図中上段)を示す図である。
図1に示すロボットシステム100は、ロボット1が部品収納部200(部品供給部)から互いに異なる種類の複数の部品C1、C2、C3をそれぞれ取り出し、複数種の部品C1、C2、C3からなる部品キットCKを作成し、部品キットCKを作業台300(次工程部)へ供給するという作業を行うシステムである。
部品収納部200は、鉛直方向に4段、水平方向に3列(左側、中央、右側)に仕切られていることによって12個の収納スペースを有する部品棚であり、各収納スペースには、コンテナ201が収納されている。ここで、各コンテナ201は、上方に開放したトレイ状または箱状をなしている。そして、部品収納部200の左側の列にある各コンテナ201には、部品C1が複数収納されている。部品収納部200の中央の列にある各コンテナ201には、部品C2が複数収納されている。部品収納部200の右側の列にある各コンテナ201には、部品C3が複数収納されている。また、各コンテナ201は、部品収納部200から引き出し可能に配置されている。これにより、各コンテナ201から部品C1、C2、C3を容易に取り出すことができる。
なお、部品収納部200は、図示の収納スペースの数、構成および配置等に限定されず、例えば、部品収納部200が部品の種類ごとに独立した複数の棚で構成されていてもよく、この場合、複数の棚の配置は任意である。また、ロボット1が作業可能な状態で部品C1、C2、C3を載置することができれば、コンテナ201は省略してもよい。
部品C1、C2、C3は、互いに種類の異なる部品である。部品C1、C2、C3としては、それぞれ、特に限定されないが、例えば、各種電子部品等が挙げられる。部品キットCKは、部品C1、C2、C3を1つずつ含んで構成されている。なお、部品キットCKは、部品C1、C2、C3以外の部品を含んでいてもよいし、同種の複数の部品を含んでいてもよい。
作業台300は、部品キットCKを用いた作業を行うための台である。図示の作業台300は、複数の部品キットCKを載置可能な載置部301を有する。作業台300での作業としては、特に限定されないが、例えば、部品キットCKを含む部品群の組み立て、塗装、表面処理、整列、搬送等が挙げられる。
なお、作業台300は、複数の部品キットCKまたはトレイTRを載置可能であればよく、図示の構成および配置等に限定されず、例えば、ベルトコンベア等の装置であってもよい。
ロボットシステム100は、自動搬送装置2と、自動搬送装置2に搭載されているロボットアーム10を有するロボット本体3と、自動搬送装置2に配置されている環境認識センサー4と、ロボットアーム10に配置されている物体認識センサー5(形状測定部)と、自動搬送装置2およびロボットアーム10の動作を制御する制御装置6(制御部)と、自動搬送装置2上に配置されている載置部7と、を備え、これらが走行可能なロボット1を構成している。なお、ロボットシステム100は、ロボット1と、部品収納部200と、作業台300と、を有するシステムであるともいえる。
ここで、制御装置6は、環境認識センサー4の認識結果に基づいて、ロボットアーム10が部品収納部200または作業台300に対する作業可能な位置となるように自動搬送装置2を移動させることが可能である。また、制御装置6は、ロボット本体3が部品収納部200に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7上に複数の部品キットCKを作成するようにロボット本体3を駆動させることが可能である。また、制御装置6は、ロボット本体3が作業台300に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7上から作業台300へ複数の部品キットCKを載せ換えるようにロボット本体3を駆動させることが可能である。
このように、ロボット1は、複数の部品キットCKを載置部7上で作成した後に作業台300へ載せ換えることが可能である。これにより、自動搬送装置2が部品収納部200と作業台300との間を往復する回数を少なくし、作業効率を高めることができる。本実施形態では、部品キットCKの作成前の載置部7上には、複数のトレイTRが載置されており、部品キットCKは、トレイTR上に作成される。そして、部品キットCKはトレイTRごと載置部7上から作業台300に載せ換えられる。これにより、載せ換え作業の簡単化を図ることができる。
以下、ロボットシステム100(ロボット1)を構成する各部について順次説明する。
[自動搬送装置]
図1に示す自動搬送装置2は、無軌道で走行(移動)可能な無人搬送車である。ここで、「無軌道で走行(移動)可能」とは、自動搬送装置2の走行(移動)軌道となるレールや誘導の為のガイド線等の設備を必要とせずに、指示された目的位置へ向かうように走行(移動)制御可能であることを言う。
[自動搬送装置]
図1に示す自動搬送装置2は、無軌道で走行(移動)可能な無人搬送車である。ここで、「無軌道で走行(移動)可能」とは、自動搬送装置2の走行(移動)軌道となるレールや誘導の為のガイド線等の設備を必要とせずに、指示された目的位置へ向かうように走行(移動)制御可能であることを言う。
この自動搬送装置2は、図1および図2に示すように、車体21と、車体21に取り付けられて、通常進行方向側である前方にある1対の前輪22と、後方にある1対の後輪23と、1対の前輪22の舵角を変更可能な操舵機構24と、1対の後輪23を駆動可能な駆動部25と、を備えている。
図1に示すように、車体21の上部には、複数の部品C1、C2、C3を含む部品キットCKを複数(図示では3つ)載置可能な載置部7が設けられている。この載置部7は、部品キットCKをトレイTRに載置した状態で載置可能に構成されている。ここで、1つのトレイTRには、1つの部品キットCKが載置される。したがって、載置部7は、複数(図示では3つ)のトレイTRを載置可能に構成されている。また、載置部7に載置可能なトレイTRの数は、載置部7に載置可能な部品キットCKの数と等しい。このようなトレイTRは、部品キットCKの作成に先立ち、ロボット本体3を用いて載置部7上に載置されるか、または、人手により載置部7上に載置される。
なお、載置部7に載置可能な部品キットCKおよびトレイTRの数は、それぞれ、図示の数に限定されず、任意である。また、載置部7に載置可能なトレイTRの数は、載置部7に載置可能な部品キットCKの数と異なっていてもよく、例えば、1つのトレイTRに複数の部品キットCKを載置してもよい。
一方、車体21の下部には、前方側に左右1対の前輪22、後方側に左右1対の後輪23が設けられている。
1対の前輪22は、操舵輪であり、図2に示す操舵機構24を介して車体21に取り付けられている。この操舵機構24により1対の前輪22の舵角を変更することで、自動搬送装置2の操舵が行われる。これにより、車体21の走行方向を変更することができる。なお、1対の後輪23が操舵可能であってもよいし、1対の前輪22および1対の後輪23のすべてが操舵可能であってもよい。
また、1対の後輪23は、駆動輪であり、駆動部25を介して車体21に取り付けられている。この駆動部25は、モーター等の駆動源(図示せず)を有し、その駆動源の駆動力を1対の後輪23に伝達する。これにより、車体21を前方または後方へ走行させることができる。なお、1対の前輪22が駆動可能であってもよいし、1対の前輪22および1対の後輪23のすべてが駆動可能であってもよい。
また、車体21内には、前述した駆動源に電力を供給するためのバッテリー(図示せず)が配置されており、このバッテリーは、ロボットアーム10、環境認識センサー4および物体認識センサー5等の駆動にも用いられる。
[ロボット本体]
図1に示すロボット本体3は、いわゆる単腕の6軸垂直多関節ロボットである。このロボット本体3は、基台30と、基台30に回動可能に連結されたロボットアーム10と、を有する。また、ロボットアーム10には、力検出センサー11を介してハンド12が装着されている。
図1に示すロボット本体3は、いわゆる単腕の6軸垂直多関節ロボットである。このロボット本体3は、基台30と、基台30に回動可能に連結されたロボットアーム10と、を有する。また、ロボットアーム10には、力検出センサー11を介してハンド12が装着されている。
基台30は、前述した自動搬送装置2の車体21の上部に、図示しないボルト等により固定されている。なお、自動搬送装置2に対する基台30の設置位置は、ロボット本体3が前述した自動搬送装置2の載置部7上に部品C1、C2、C3をそれぞれ複数載置可能であれば、いかなる位置であってもよい。また、基台30は、自動搬送装置2と一体で構成されていてもよい。
ロボットアーム10は、基台30に対して回動可能に連結されているアーム31(第1アーム)と、アーム31に対して回動可能に連結されているアーム32(第2アーム)と、アーム32に対して回動可能に連結されているアーム33(第3アーム)と、アーム33に対して回動可能に連結されているアーム34(第4アーム)と、アーム34に対して回動可能に連結されているアーム35(第5アーム)と、アーム35に対して回動可能に連結されているアーム36(第6アーム)と、を有する。
これらアーム31〜36の各関節部には、図2に示すアーム駆動部13が設けられており、各アーム駆動部13の駆動によって各アーム31〜36が回動する。ここで、各アーム駆動部13は、図示しないモーターおよび減速機を有する。モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーター、圧電モーター等を用いることができる。減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。また、各アーム駆動部13には、ロータリーエンコーダー等の角度センサー14が設けられており(図2参照)、角度センサー14がアーム駆動部13のモーターまたは減速機の回転軸の回転角度を検出する。
また、図1に示すように、ロボットアーム10の先端部に位置するアーム36には、力検出センサー11を介して、ハンド12が取り付けられている。
力検出センサー11は、例えば、力検出センサー11に加えられた外力の6軸成分を検出可能な6軸力覚センサーである。ここで、6軸成分は、互いに直交する3つの軸のそれぞれの方向の並進力(せん断力)成分、および、当該3つの軸のそれぞれの軸まわりの回転力(モーメント)成分である。なお、力検出センサー11の検出軸の数は、6つに限定されず、例えば、1つ以上5つ以下であってもよい。
ハンド12は、ロボットシステム100の作業の対象物である部品C1、C2、C3をそれぞれ把持可能な2本の指を有する。なお、ハンド12が有する指の数は、2本に限定されず、3本以上であってもよい。また、部品C1、C2、C3の種類によっては、ハンド12に代えて、部品C1、C2、C3を吸着等により保持するエンドエフェクターを用いてもよい。
[環境認識センサー]
環境認識センサー4は、前述した自動搬送装置2の車体21の前方部および後方部にそれぞれ設けられている。車体21の前方部に設けられた環境認識センサー4(4a)は、車体21に対して前方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。また、車体21の後方部に設けられた環境認識センサー4(4b)は、車体21に対して後方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。
環境認識センサー4は、前述した自動搬送装置2の車体21の前方部および後方部にそれぞれ設けられている。車体21の前方部に設けられた環境認識センサー4(4a)は、車体21に対して前方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。また、車体21の後方部に設けられた環境認識センサー4(4b)は、車体21に対して後方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。
なお、環境認識センサー4の設置位置および設置数は、環境認識センサー4がロボット1の走行および作業に必要な範囲を認識可能であればよく、前述した位置および数に限定されず、例えば、環境認識センサー4bを省略してもよいし、環境認識センサー4a、4bの他に、車体21の右側部および左側部のうちの少なくとも一方に環境認識センサー4を設けてもよい。また、環境認識センサー4は、自動搬送装置2の周囲の床、天井、柱等の構造物に取り付けられていてもよい。
環境認識センサー4は、前述した機能を有していればよく、特に限定されず、TOF(Time Of Flight)方式等を用いた各種3次元測定機を用いることができる。また、環境認識センサー4は、後述する物体認識センサー5と同様に構成することができる。ただし、環境認識センサー4は、物体認識センサー5よりも測定範囲(測定可能な領域の範囲)が広いことが好ましい。これにより、ロボット1の周囲の環境を広範囲にわたって認識することができる。そのため、ロボット1は、必要な環境認識センサー4の設置数を少なくしたり、環境認識センサー4の死角を少なくして安全性を高めたりすることができる。
環境認識センサー4には、その認識結果を表すための3次元の直交座標系が設定されており、環境認識センサー4は、この座標系における物体の座標情報を認識結果として出力することができる。ここで、環境認識センサー4に設定されている座標系は、制御装置6において、ロボット1に設定されているロボット座標系(制御装置6がロボット1の駆動制御に用いる座標系)と対応付けを成すことができる。
[物体認識センサー]
物体認識センサー5は、前述したロボット本体3のロボットアーム10に先端部に設けられている。図示では、物体認識センサー5は、ロボットアーム10が有するアーム31〜36のうちの最も先端側にあるアーム36に取り付けられている。物体認識センサー5は、ロボットアーム10の先端部の周囲または近傍にある物体(例えば、部品C1、C2、C3、部品収納部200、作業台300、載置部7等の対象物)の形状に応じた信号を出力する機能を有する。
物体認識センサー5は、前述したロボット本体3のロボットアーム10に先端部に設けられている。図示では、物体認識センサー5は、ロボットアーム10が有するアーム31〜36のうちの最も先端側にあるアーム36に取り付けられている。物体認識センサー5は、ロボットアーム10の先端部の周囲または近傍にある物体(例えば、部品C1、C2、C3、部品収納部200、作業台300、載置部7等の対象物)の形状に応じた信号を出力する機能を有する。
なお、物体認識センサー5の設置位置は、アーム36に限定されず、他のアーム31〜35であってもよい。また、物体認識センサー5の設置数は、2以上であってもよい。
物体認識センサー5は、例えば、位相シフト法を用いて、ロボットアーム10の先端部の周囲または近傍にある物体(対象物)の形状を測定するように構成されている。すなわち、物体認識センサー5が形状測定を行う対象物は、ロボットアーム10が作業する対象物である。また、物体認識センサー5には、その認識結果を表すための3次元の直交座標系が設定されており、物体認識センサー5は、この座標系における物体の座標情報を認識結果として出力する。ここで、物体認識センサー5に設定されている座標系は、制御装置6において、ロボット1に設定されているロボット座標系(制御装置6がロボット1の駆動制御に用いる座標系)と対応付けがなされている。
具体的には、図3に示すように、物体認識センサー5は、測定範囲にパターン光LPの投影を行う投影部51と、測定範囲の撮像を行う撮像部52と、投影部51および撮像部52のそれぞれに電気的に接続されている回路部53と、を備える。
投影部51は、測定範囲に、輝度値の明暗で正弦波を表した縞パターンの映像光であるパターン光LPを投影する機能を有する。このパターン光LPは、図4に示すように、測定範囲を所定方向でn分割(好ましくは5本以上50本以下の範囲内であり、図4では5分割である)し、各領域の範囲を1周期として輝度値が所定方向(図4中に示すX方向)で正弦波に沿って変化する。
この投影部51は、図3に示すように、ライン状の光LLを出射する光源部511と、光源部511からの光LLを反射しながら走査してパターン光LPを生成する光スキャナー512と、を有する。
光源部511は、光源5111と、レンズ5112、5113と、を有する。ここで、光源5111は、例えば、半導体レーザーである。また、レンズ5112は、コリメートレンズであり、レンズ5112を透過した光を平行光とする。レンズ5113は、ラインジェネレーターレンズ(パウエルレンズ)、シリンドリカルレンズまたはロッドレンズであり、光源5111からの光を所定方向(図4中に示すY方向)に沿ったライン状に伸長して光LLを生成する。なお、レンズ5112は、必要に応じて設ければよく、省略してもよい。レンズ5113に代えて、凹面シリンドリカルミラーまたは光スキャナーを用いて、光源5111からの光をライン状に伸長してもよい。また、光源5111からの光がライン状である場合、レンズ5113を省略することができる。
光スキャナー512は、ムービングマグネット方式の光スキャナーであり、光源部511からのライン状の光LLを反射して、所定方向(図4中に示すX方向)に走査することでパターン光LPを生成する。この光スキャナー512は、図5に示すように、可動ミラー部5121と、1対の軸部5122と、支持部5123と、永久磁石5124と、コイル5125と、歪センサー5126と、を備える。
可動ミラー部5121は、1対の軸部5122(トーションバー)を介して支持部5123に対して揺動軸asまわりに揺動可能に支持されている。このような可動ミラー部5121、軸部5122および支持部5123は、シリコン等で一体に構成されており、例えば、シリコン基板またはSOI(Silicon on Insulator)基板をエッチングすることで得られる。
また、可動ミラー部5121の一方の面(ミラー面)は、光反射性を有し、光源部511からの光LLを反射する部分である。ここで、当該一方の面には、必要に応じて、金属膜が設けられていてもよい。また、可動ミラー部5121は、揺動軸asに沿った長手形状をなしている。これにより、可動ミラー部5121の小型化を図りつつ、ライン状の光LLの走査を行うことができる。なお、可動ミラー部5121の平面視形状は、図示では四角形(長方形)であるが、これに限定されず、例えば、楕円形であってもよい。また、軸部5122および支持部5123の形状も、図示の形状に限定されない。
可動ミラー部5121のミラー面とは反対側の面には、永久磁石5124が接着剤等により接合(固定)されている。永久磁石5124は、例えば、ネオジム磁石、フェライト磁石、サマリウムコバルト磁石、アルニコ磁石またはボンド磁石である。
永久磁石5124の直下(可動ミラー部5121とは反対側)には、コイル5125が配置されている。このコイル5125は、後述するスキャナー駆動部532(図3参照)からの通電(駆動信号)により、可動ミラー部5121を揺動軸asまわりに揺動させるように、永久磁石5124と相互作用する磁界を発生させる。なお、永久磁石5124およびコイル5125の配置等は、可動ミラー部5121を揺動軸asまわりに揺動させることができればよく、図示の配置等に限定されない。
歪センサー5126は、軸部5122と支持部5123との境界部に設けられたピエゾ抵抗素子であり、軸部5122の歪に応じて抵抗値が変化する。可動ミラー部5121が揺動軸asまわりに揺動(回動)する際には、軸部5122のねじれ変形を伴うので、これにより生じる軸部5122の歪を歪センサー5126で検出し、可動ミラー部5121の動きを把握することができる。この歪センサー5126は、軸部5122と支持部5123との境界部を構成するシリコンにリンまたはボロン等の不純物をドープすることで得られる。
以上のような投影部51のパターン光LPの出射方向(中心軸a1方向)は、撮像部52の光軸a2方向に対して傾斜している。これにより、3次元形状を高精度に測定することができる。この傾斜角度は、20°以上40°以下の範囲内であることが好ましく、25°以上35°以下の範囲内であることがより好ましい。これにより、測定可能な範囲を広くしつつ、3次元形状を高精度に測定することができる。かかる傾斜角度が小さすぎると、測定可能な範囲が広くなるものの、高さ方向での測定精度が低くなってしまい、一方、かかる傾斜角度が大きすぎると、高さ方向での測定精度を高められるものの、測定可能な範囲が狭くなってしまう。
撮像部52は、複数の画素を有する撮像素子521と、結像光学系522と、を有し、測定範囲に投影されたパターン光LPを撮像素子521が結像光学系522を介して撮像する。
撮像素子521は、撮影画像を画素ごとの電気信号に変換して出力する。撮像素子521としては、特に限定されないが、例えば、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等が挙げられる。
結像光学系522は、2つのレンズ5221、5222を有し、測定範囲にある物体表面でのパターン光を撮像素子521の受光面(センサー面)に結像させる。なお、結像光学系522が有するレンズの数は、撮像素子521がパターン光を撮像することができればよく、図示の数に限定されず、任意である。
撮像部52の撮像方向(光軸a2方向)は、ロボットアーム10の先端部の中心軸a(図1参照)に対して平行である。これにより、ロボットアーム10の先端部が向く方向を測定範囲とすることができる。
回路部53は、図3に示すように、投影部51の光源部511を駆動する光源駆動部531と、投影部51の光スキャナー512を駆動するスキャナー駆動部532と、光スキャナー512が故障しているか否かを判断する故障判断部533と、撮像部52の撮像素子521からの信号に基づいて、測定範囲内にある物体(対象物)の形状を算出する算出部534と、を有する。
図3に示すスキャナー駆動部532は、光スキャナー512のコイル5125に電気的に接続されている。このスキャナー駆動部532は、コイル5125を駆動する駆動回路を含んで構成され、図6に示すように、周期的(周期T)に電流値が変化する駆動信号(バイアス電流に変調電流を重畳した駆動電流)を生成し、これをコイル5125に供給する。この駆動信号の周波数(駆動周波数)は、前述した可動ミラー部5121および1対の軸部5122からなる振動系の共振周波数からずれている。物体認識センサー5(回路部53)は、前述した振動系の共振周波数に対応して駆動信号の周波数を制御する回路を有しないため、可動ミラー部5121が非共振で駆動することになる。すなわち、温度変化による特性変化を低減するための回路が不要となり、形状測定部の小型化を図ることができる。また、可動ミラー部5121を非共振で駆動する場合、可動ミラー部5121を共振で駆動する場合に比べて、光スキャナー512の起動時間(可動ミラー部5121が停止状態から所望の振幅および周波数となるまでに要する時間)を短くすることができるという利点もある。
ここで、駆動信号の周波数は、利得が0.8以上1.2以下の範囲内となるように、可動ミラー部5121および1対の軸部5122からなる振動系の共振周波数との差を有することが好ましい。また、駆動信号の具体的な周波数は、特に限定されないが、例えば、100Hz以上4kHz以下の範囲内にあることが好ましい。これにより、物体認識センサー5(形状測定部)の測定精度を優れたものとしつつ、光スキャナー512の非共振駆動を容易に実現することができる。
特に、スキャナー駆動部532が出力する駆動信号は、正弦波形の波形をなしている(図6参照)。これにより、駆動信号の周波数成分が単一(駆動周波数のみ)となるため、駆動信号の生成(波形の成形)を簡単化することができる。また、駆動信号が駆動周波数以外の他の周波数成分を含まないため、当該他の周波数成分により可動ミラー部5121が共振駆動するのを低減することができる。その結果、可動ミラー部5121を非共振で安定的に駆動することができる。
図3に示す光源駆動部531は、光源部511の光源5111に電気的に接続されている。この光源駆動部531は、光源5111を駆動する駆動回路を含んで構成され、周期的に電流値が変化する変調信号(バイアス電流に変調電流を重畳した駆動電流)を生成し、これを光源5111に供給する。光源駆動部531が生成する変調信号は、おおよそ正弦波をなす波形の信号である。
ただし、前述したように、スキャナー駆動部532が出力する駆動信号は、正弦波信号(正弦波形の波形をなす信号)である。そのため、光スキャナー512によって走査される光LLの投影面55(光スキャナー512と測定投影の対象物とを結ぶ線分に垂直な面)での走査速度は、可動ミラー部5121が揺動することでその揺動角度によって変化し、一定でない。したがって、仮に光源駆動部531が生成する変調信号を正弦波信号とすると、投影されるパターン光LPが意図した縞パターンとはならない。そこで、これを補正するべく、光源駆動部531が生成する変調信号の波形は、図7の下段に示すように、正弦波形(図7の上段に示す波形)とは異なっている。具体的には、可動ミラー部5121の振れ角をθ、駆動周波数をf、最大振幅(機械角)をθmax、MEMSミラーと投影面との距離をh、時間をt、輝度レンジをA、および輝度オフセットをBとしたとき、レーザー輝度は式(1)で表される。
これにより、光スキャナー512の振れ角の速度が一定でなくとも、図4に示すような輝度値の明暗で正弦波を表した縞状のパターン光LPを描くことができる。
また、光源駆動部531は、π/2ずつ位相のずれた駆動信号を出力可能となっている。これにより、位相がπ/2ずつずれた縞状のパターン光LPを生成することができる。
図3に示す故障判断部533は、光スキャナー512の歪センサー5126(図5参照)に電気的に接続されている。この故障判断部533は、歪センサー5126の抵抗値に基づいて、光スキャナー512が故障(正常に作動していないこと)しているか否かを判断する。例えば、故障判断部533は、歪センサー5126の抵抗値を測定し、その抵抗値の変化(周波数)が駆動信号の周波数と同期していないとき、光スキャナー512が故障していると判断する。ここで、歪センサー5126および故障判断部533は、光スキャナー512の故障を検知する故障検知部54を構成している。
図3に示す算出部534は、図示しないが、CPU(Central Processing Unit)等のプロセッサーと、ROM(read only memory)、RAM(Random Access Memory)等のメモリーと、を有する。そして、算出部534は、メモリーに記憶されている測定プログラムをプロセンサーが実行することにより、撮像部52の撮像結果に基づいて対象物の形状を算出する。
以上のような物体認識センサー5は、パターン光LPを投影部51から測定範囲に向けて投影し、その投影されたパターン光LPを撮像部52で撮像する。その際、例えば、光源駆動部531がπ/2ずつ位相のずれた駆動信号を4つ出力し、位相がπ/2ずつずれて投影されたパターン光LPを4回投影し、その都度、投影されたパターン光LPを撮像部52で撮像する。4回の撮像により得られる4つの撮像画像の同じ座標における輝度値は、絶対値がその座標における測定対象物の表面状態や色等で変化しても、相対値がパターン光LPの位相差分だけ変化する。これにより、環境光や測定対象物の表面状態等の影響を受けるのを低減しつつ、その座標での縞パターンの位相値を求めることができる。
ここで、位相値は、まず、撮像画像中で連続した値ではなく縞パターンの縞ごとに−π〜+πの範囲で求められる。そして、このような位相値は、撮像画像中の連続した値となるように位相連結(位相接続)される。これにより、位相値に基づいて測定対象物の形状を測定することができる。
以上のような物体認識センサー5は、前述したように、対象物に対して縞状のパターン光LPを投影する投影部51と、パターン光LPを撮像する撮像部52と、撮像部52の撮像結果に基づいて対象物の形状を算出する算出部534と、を有する。そして、投影部51は、ライン状のレーザーである光LLを出射する光源部511と、光源部511からの光LLを対象物に向けて反射して走査する光スキャナー512と、を有する。これにより、小型な物体認識センサー5を実現することができる。
また、投影部51は、光スキャナー512を非共振駆動する駆動信号を出力するスキャナー駆動部532を有する。これにより、温度変化が生じても、安定した振幅および周波数で光スキャナー512の駆動を行うことができる。そのため、温度変化による特性変化を低減するための回路が不要となり、物体認識センサー5の小型化を図ることができる。
さらに、スキャナー駆動部532が出力する駆動信号の波形は、正弦波状である(図6参照)。これにより、駆動信号の生成が容易となる。また、駆動信号の周波数成分に光スキャナー512の駆動周波数以外の周波数が含まれることを低減し、光スキャナー512の非共振駆動を安定して行うことができる。
[制御装置]
図2に示す制御装置6(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2およびロボットアーム10の駆動を制御する機能を有する。
図2に示す制御装置6(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2およびロボットアーム10の駆動を制御する機能を有する。
この制御装置6(制御部)は、CPU(Central Processing Unit)等のプロセッサー61と、ROM(read only memory)、RAM(Random Access Memory)等のメモリー62(記憶部)と、を備える。なお、制御装置6は、自動搬送装置2の車体21内に配置されているが、これに限定されず、例えば、ロボット本体3の基台30内、車体21の外部等に配置されていてもよい。
メモリー62には、自動搬送装置2およびロボットアーム10の駆動制御を行うプログラムと、作業の対象物である部品C1、C2、C3の部品形状情報と、ロボットシステム100が使用される環境(ロボット1の周囲の環境)の地図情報と、が記憶されている。ここで、地図情報には、ロボット1が使用される環境にある物体(部品収納部200、作業台300等)の位置情報および形状情報が含まれている。
プロセッサー61は、メモリー62に記憶されているプログラムおよび各種情報を適宜読み込んで実行することにより、自動搬送装置2およびロボットアーム10の駆動制御を行う。
このような制御装置6には、制御装置6が自動搬送装置2およびロボットアーム10の駆動制御に用いる座標系として、ロボット座標系が設定されている。このロボット座標系は、ロボットアーム10の先端部(例えばツールセンターポイント)に設定されている座標系との対応付けがなされている。これにより、制御装置6は、ロボットアーム10の先端部またはハンド12を所望の位置および姿勢とすることができる。また、前述したように、ロボット座標系は、環境認識センサー4および物体認識センサー5に設定されている座標系との対応付けもなされており、これらのセンサーの認識結果に基づいて、自動搬送装置2およびロボットアーム10の所望の動作が可能となっている。
以下、制御装置6による自動搬送装置2およびロボットアーム10の駆動制御について説明する。
図8は、図1に示すロボットシステムの動作を説明するためのフローチャートである。図9は、図8に示す部品キット作成モードの動作を説明するためのフローチャートである。図10は、図9に示す取り出し作業の動作を説明するためのフローチャートである。図11は、部品が作業不可能な状態にある場合を説明するための図である。図12は、図10に示すステップS34を説明するための図である。図13は、1種目の部品の取り出し作業を説明するための図である。図14は、2種目の部品の取り出し作業を説明するための図である。図15は、3種目の部品の取り出し作業を説明するための図である。図16は、図8に示す部品キット乗せ換えモードの動作を説明するためのフローチャートである。図17は、乗せ換え完了時の作業台の状態を示す図である。
制御装置6は、図8に示すように、部品キット作成モード(ステップS1)と、部品キット載せ換えモード(ステップS2)と、を有し、これらを順次実行する。ここで、部品キット作成モードは、部品収納部200から部品C1、C2、C3を取り出して載置部7上に複数の部品キットCKを作成するモードである。部品キット載せ換えモードは、複数の部品キットCKを載置部7上から作業台300上に載せ換えるモードである。以下、各モードについて詳述する。
(部品キット作成モード)
部品キット作成モードでは、図9に示すように、まず、対象部品が設定される(ステップS11)。この対象部品は、部品C1、C2、C3のうちのいずれかであり、例えば、部品C1が対象部品として設定される。
部品キット作成モードでは、図9に示すように、まず、対象部品が設定される(ステップS11)。この対象部品は、部品C1、C2、C3のうちのいずれかであり、例えば、部品C1が対象部品として設定される。
次に、環境認識センサー4の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS12)。このとき、メモリー62に記憶されている地図情報(特に部品収納部200の位置情報)と、環境認識センサー4の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の部品収納部200の位置とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が対象部品に対して作業可能な位置(作業位置)、または、物体認識センサー5が部品収納部200の対象位置(対象部品がある位置)を認識可能な位置である。
環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS12のNO)、環境認識センサー4の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS13)。このとき、前述したステップS12で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、環境認識センサー4の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS13の後、後述するステップS14に移行する。なお、自動搬送装置2の駆動中(移動中)は、ロボットアーム10の駆動を停止することが好ましい(他のステップにおける移動中も同様)。これにより、例えば、ロボットアーム10に取り付けられた物体認識センサー5が衝撃等により損傷することを低減することができる。
ここで、制御装置6(制御部)は、環境認識センサー4の認識結果に基づいて、自動搬送装置2の走行ルート情報(移動ルート情報)を作成し、当該走行ルート情報に基づいて自動搬送装置2を走行制御することが好ましい。これにより、自動搬送装置2の移動中に環境認識センサー4による環境認識を行わなくても、走行ルート情報に基づいて自動搬送装置2を走行させることができる。
一方、環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS12のYES)、物体認識センサー5の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS14)。このとき、メモリー62に記憶されている地図情報(特に部品収納部200の形状情報)と、物体認識センサー5の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の部品収納部200の作業位置(例えば作業すべきコンテナ201の位置)とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が対象部品に対して作業可能な位置である。
物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS14のNO)、物体認識センサー5の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS15)。これにより、自動搬送装置2の位置の微調整を行うことができる。このとき、前述したステップS14で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、物体認識センサー5の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS15の後、後述するステップS16に移行する。
このように、制御装置6(制御部)は、必要に応じて、物体認識センサー5の認識結果に基づいて、自動搬送装置2の移動または姿勢変更を行う。これにより、自動搬送装置2の位置調整を高精度に行うことができる。
一方、物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS14のYES)、物体認識センサー5の認識結果に基づいて、対象部品を認識する(ステップS16)。このとき、ハンド12を用いて目的のコンテナ201を引き出す。そして、メモリー62に記憶されている形状情報(部品C1、C2、C3のうち対象部品の形状情報)と、物体認識センサー5の認識結果とを照合することにより、コンテナ201内の対象部品の位置および姿勢を把握する。
次に、対象部品の取り出し作業を行う(ステップS17)。このとき、図10に示すように、まず、コンテナ201内にある複数の対象部品のうち、取り出すべき1つの部品を特定する(ステップS32)。そして、作業可能か否かを判断する(ステップS33)。このとき、図11に示すように、複数の対象部品(図示では部品C1)のすべてが重なっている場合には、作業不可能と判断する。
作業不可能と判断した場合(ステップS33のNO)、対象部品の状態を変更する(ステップS34)。このとき、図12に示すように、ハンド12を用いて、複数の対象部品が重ならないように、複数の対象部品の状態を変更する。ここで、例えば、ハンド12をその中心軸方向b1および幅方向b2のうちの少なくとも一方に動かして、少なくとも1つの対象部品に対し、つつく、転がす、均す等の作業を行う。このようなステップS34を作業可能と判断するまで繰り返す(ステップS35のNO)。
このように、制御装置6(制御部)は、部品収納部200にある部品C1、C2またはC3の姿勢が変更されるように、ロボットアーム10を駆動可能である。これにより、部品C1、C2またはC3の姿勢がロボットアーム10により取り出しにくい状態にある場合、当該部品C1、C2またはC3の姿勢を取り出しやすい状態に変更することができる。
作業可能と判断した場合(ステップS33、S35のYES)、対象部品を取り出す作業を実施する(ステップS36)。このとき、メモリー62に記憶されている形状情報(部品C1、C2、C3のうち対象部品の形状情報)と、物体認識センサー5の認識結果とを照合することにより、特定した1つの対象部品の位置および姿勢を把握する。そして、その位置および姿勢に基づいて、ロボットアーム10およびハンド12を動作させて、対象部品をハンド12で把持して載置部7上に載置する。なお、ロボットアーム10の駆動中(作業中)は、自動搬送装置2の駆動を停止することが好ましい(後述する載せ換え作業も同様)。これにより、作業精度を高めることができる。
このような取り出し作業を、取り出した部品個数が設定数(本実施形態の場合3つ)となるまで繰り返す(ステップS18のNO)。このように取り出し作業を繰り返すことで、図13に示すように、載置部7上の各トレイTR上に対象部品(図示では部品C1)が載置される。そして、取り出した部品個数が設定数となった場合、部品キットCKの作成が完了したか否かを判断する(ステップS19)。このとき、各トレイTR上に載置されている部品が部品C1、C2、C3のうちの1つ(図13参照)または2つ(図14参照)であるとき、部品キットCKの作成が完了していない判断し(ステップS19のNO)、対象部品を変更する(ステップS20)。このとき、例えば、図13に示す場合、対象部品を部品C2に変更し、図14に示す場合、対象部品をC3に変更する。そして、前述したステップS12に移行する。
図15に示すように各トレイTR上に部品C1、C2、C3のすべてが載置されているとき、部品キットCKの作成が完了したと判断し(ステップS19のYES)、部品キット作成モード(図8に示すステップS1)を終了し、部品キット載せ換えモード(図8に示すステップS2)に移行する。
(部品キット載せ換えモード)
部品キット載せ換えモードでは、図16に示すように、まず、載せ換え先が設定される(ステップS21)。この載せ換え先は、作業台300である。
部品キット載せ換えモードでは、図16に示すように、まず、載せ換え先が設定される(ステップS21)。この載せ換え先は、作業台300である。
次に、環境認識センサー4の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS22)。このとき、メモリー62に記憶されている地図情報(特に作業台300の位置情報)と、環境認識センサー4の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の作業台300の位置とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が部品キットCKを載置部301に載置可能な位置(作業位置)、または、物体認識センサー5が作業台300の載置部301を認識可能な位置である。
環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS22のNO)、環境認識センサー4の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS23)。このとき、前述したステップS22で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、環境認識センサー4の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS23の後、後述するステップS24に移行する。
一方、環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS22のYES)、物体認識センサー5の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS24)。このとき、メモリー62に記憶されている地図情報(特に作業台300の形状情報)と、物体認識センサー5の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の作業台300の作業位置(例えば載置部301の位置)とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が部品キットCKを載置部301に載置可能な位置である。
物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS24のNO)、物体認識センサー5の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS25)。これにより、自動搬送装置2の位置の微調整を行うことができる。このとき、前述したステップS24で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、物体認識センサー5の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS25の後、後述するステップS26に移行する。
一方、物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS24のYES)、物体認識センサー5の認識結果に基づいて、載せ換え先である載置部301を認識する(ステップS26)。このとき、メモリー62に記憶されている情報(作業台300の形状情報)と、物体認識センサー5の認識結果とを照合することにより、載置部301の位置および姿勢を把握する。
次に、部品キットCKの載せ換え作業を行う(ステップS27)。このとき、トレイTRをハンド12で把持して、部品キットCKをトレイTRごと載置部7から載置部301へ載せ換える。そして、部品キットCKの載せ換えが完了したか否かを判断する(ステップS28)。部品キットCKの載せ換えが完了していない判断し(ステップS28のNO)、載せ換え先を必要に応じて変更する(ステップS29)。そして、前述したステップS22に移行する。これにより、図17に示すように、載置部301上にすべての部品キットCKを載せ換えることができる。
部品キットCKの載せ換えが完了したと判断し(ステップS28のYES)、部品キット載せ換えモード(図8に示すステップS2)を終了する。
以上のようなロボットシステム100は、自動で移動可能な自動搬送装置2と、自動搬送装置2に搭載され、対象物に対して作業を行う1つのロボットアーム10と、ロボットアームに配置され、対象物を認識する物体認識センサー5と、自動搬送装置2が移動する方向の環境を認識する環境認識センサー4と、を備える。特に、ロボットシステム100は、自動搬送装置2に配置され、互いに種類の異なる複数の部品C1、C2、C3を含む部品キットCKを複数載置可能な載置部7と、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2およびロボットアーム10の駆動制御を行う制御部である制御装置6と、を備える。そして、制御装置6は、物体認識センサー5の認識結果に基づいて、複数の部品C1、C2、C3を収納している部品収納部200から複数の部品C1、C2、C3をそれぞれ取り出して載置部7上に複数の部品キットCKを作成するようにロボットアーム10の駆動制御を行った後、環境認識センサー4の認識結果に基づいて、部品収納部200とは異なる位置に配置されている作業台300へ向けて移動するように自動搬送装置2の駆動制御を行い、物体認識センサー5の認識結果に基づいて、複数の部品キットCKを載置部7上から作業台300へ載せ換えるようにロボットアーム10の駆動制御を行う。
このようなロボットシステム100によれば、部品収納部200から複数の部品C1、C2、C3をそれぞれ取り出して載置部7上に複数の部品キットCKを作成した後、作業台300へ向けて移動し、複数の部品キットCKを載置部7上から直接作業台300へ載せ換えるため、部品収納部200から複数の部品C1、C2、C3をそれぞれ取り出して作業台300上に複数の部品キットCKを作成する場合に比べて、自動搬送装置2が部品収納部200と作業台300との間を往復移動する回数を少なくすることができる。そのため、効率よく部品キットCKを作成することができる。
ここで、自動搬送装置2は、無軌道で走行可能である。これにより、自動搬送装置の走行を案内するためのレール等の設備が不要または簡素となるため、設備費を安価にすることができる。なお、作業に必要な走行ルートが一定である場合、レール等に沿って自動搬送装置2を走行させてもよい。
<第2実施形態>
図18は、本発明の第2実施形態に係るロボットシステムに用いるロボットを示す斜視図である。
図18は、本発明の第2実施形態に係るロボットシステムに用いるロボットを示す斜視図である。
本実施形態は、双腕ロボットに本発明を適用した以外は、前述した第1実施形態と同様である。以下、第2実施形態について、前述した実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
ロボットシステム100Aは、自動搬送装置2Aと、自動搬送装置2Aに搭載されている2本のロボットアーム10Aを有するロボット本体3Aと、自動搬送装置2Aに配置されている環境認識センサー4と、自動搬送装置2Aおよび各ロボットアーム10Aにそれぞれ配置されている物体認識センサー5(形状測定部)と、自動搬送装置2Aおよび各ロボットアーム10Aの動作を制御する制御装置6A(制御部)と、自動搬送装置2Aに配置されている載置部7Aと、を備え、これらが走行可能なロボット1Aを構成している。
自動搬送装置2Aは、車体211と、車体211に取り付けられた1対の前輪22Aおよび1対の後輪23Aと、車体211に立設されている柱部212と、1対の前輪21Aの舵角を変更可能な操舵機構(図示せず)と、1対の後輪23Aを駆動可能な駆動部(図示せず)と、を備えている。ここで、柱部212には、前述した第1実施形態の複数の部品キットCKを載置可能な載置部7Aが取り付けられている。
ロボット本体3Aは、複腕ロボットであり、自動搬送装置2Aの柱部212の上部に接続されている基台30A(胴部)と、基台30Aの左右に回動可能に連結されている2つのロボットアーム10Aと、を有する。また、各ロボットアーム10Aには、力検出センサー11Aを介してハンド12Aが接続されている。ここで、基台30Aには、環境認識センサー4および物体認識センサー5が配置されている。なお、基台30Aは、自動搬送装置2Aに対して固定的に設置されており、自動搬送装置2Aの一部であるともいえる。
各ロボットアーム10Aは、アーム31A(第1アーム)と、アーム32A(第2アーム)と、アーム33A(第3アーム)と、アーム34A(第4アーム)と、アーム35A(第5アーム)と、アーム36A(第6アーム)と、アーム37A(第7アーム)とを有する。これらアーム31A〜37Aは、基端側から先端側に向かってこの順に連結されている。各アーム31A〜37Aは、隣り合う2つのアーム同士が互いに回動可能になっている。ここで、各ロボットアーム10Aのアーム37Aには、物体認識センサー5が配置されている。
制御装置6A(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2Aおよびロボットアーム10Aの駆動を制御する機能を有する。
より具体的には、制御装置6Aは、環境認識センサー4の認識結果に基づいて、各ロボットアーム10Aが前述した第1実施形態の部品収納部200または作業台300に対する作業可能な位置となるように自動搬送装置2Aを移動させることが可能である。また、制御装置6Aは、ロボット本体3A(ロボットアーム10A)が部品収納部200に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7A上に複数の部品キットCKを作成するようにロボット本体3Aを駆動させることが可能である。また、制御装置6Aは、ロボット本体3Aが作業台300に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7A上から作業台300へ複数の部品キットCKを載せ換えるようにロボット本体3Aを駆動させることが可能である。また、物体認識センサー5は基台30Aおよび各ロボットアーム10Aの全てに配置されていなくとも、いずれか一つ、または二つに配置されていてもよい。
以上説明したような第2実施形態によっても、前述した第1実施形態と同様の効果を奏することができる。また、本実施形態のロボットシステム100Aは、ロボットアーム10Aの数が2つである。これにより、作業効率を高めたり、より複雑な作業を行ったりすることができる。また、載置部7A上に部品キットCKを作成するだけでなく、その部品キットCKの組立等の作業を載置部7A上で行うこともできる。
以上、本発明のロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。
また、本発明は、前述した実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
前述した実施形態では、3種の部品C1、C2、C3を1つずつ含む部品キットCKを作成する場合を例に説明したが、部品キットCKを構成する部品の数および種類は、これに限定されず、例えば、部品キットCKが含む部品の数が2つまたは4つ以上であってもよいし、部品キットCKが同種の部品を複数含んでいてもよい。
また、ロボットアームが有するアームの数(関節の数)は、前述した実施形態の数(6つまたは7つ)に限定されず、1つ以上5つ以下または8つ以上であってもよい。
また、物体認識センサーは、ロボットアームが対象物に対して作業可能な認識結果を得ることができればよく、前述した実施形態の構成に限定されず、例えば、位相シフト法以外の方法(例えばTOF法)を用いたセンサーであってもよいし、投影部が液晶パネルを用いてパターン光を投影する構成であってもよい。
また、前述した実施形態では、物体認識センサーに用いる光スキャナーがムービングマグネット方式である場合を例に説明したが、光スキャナーの駆動方式は、これに限定されず、ムービングコイル方式、静電駆動方式、圧電駆動方式等であってもよい。
1…ロボット、1A…ロボット、2…自動搬送装置、2A…自動搬送装置、3…ロボット本体、3A…ロボット本体、4…環境認識センサー、4a…環境認識センサー、4b…環境認識センサー、5…物体認識センサー(形状測定部)、6…制御装置、6A…制御装置、7…載置部、7A…載置部、10…ロボットアーム、10A…ロボットアーム、11…力検出センサー、11A…力検出センサー、12…ハンド、12A…ハンド、13…アーム駆動部、14…角度センサー、21…車体、21A…前輪、22…前輪、22A…前輪、23…後輪、23A…後輪、24…操舵機構、25…駆動部、30…基台、30A…基台、31…アーム、31A…アーム、32…アーム、32A…アーム、33…アーム、33A…アーム、34…アーム、34A…アーム、35…アーム、35A…アーム、36…アーム、36A…アーム、37A…アーム、51…投影部、52…撮像部、53…回路部、54…故障検知部、55…投影面、61…プロセッサー、62…メモリー、100…ロボットシステム、100A…ロボットシステム、200…部品収納部、201…コンテナ、211…車体、212…柱部、300…作業台、301…載置部、511…光源部、512…光スキャナー、521…撮像素子、522…結像光学系、531…光源駆動部、532…スキャナー駆動部、533…故障判断部、534…算出部、5111…光源、5112…レンズ、5113…レンズ、5121…可動ミラー部、5122…軸部、5123…支持部、5124…永久磁石、5125…コイル、5126…歪センサー、5221…レンズ、5222…レンズ、C1…部品、C2…部品、C3…部品、CK…部品キット、LL…光(ライン状のレーザー)、LP…パターン光、S1…ステップ、S11…ステップ、S12…ステップ、S13…ステップ、S14…ステップ、S15…ステップ、S16…ステップ、S17…ステップ、S18…ステップ、S19…ステップ、S2…ステップ、S20…ステップ、S21…ステップ、S22…ステップ、S23…ステップ、S24…ステップ、S25…ステップ、S26…ステップ、S27…ステップ、S28…ステップ、S29…ステップ、S32…ステップ、S33…ステップ、S34…ステップ、S35…ステップ、S36…ステップ、T…周期、TR…トレイ、a…中心軸、a1…中心軸、a2…光軸、as…揺動軸、b1…中心軸方向、b2…幅方向
Claims (8)
- 自動で移動可能な自動搬送装置と、
前記自動搬送装置に搭載され、対象物に対して作業を行うロボットアームと、
前記ロボットアームに配置され、前記対象物を認識する物体認識センサーと、
前記自動搬送装置が移動する方向の環境を認識する環境認識センサーと、
前記自動搬送装置に配置され、部品キットを複数載置可能な載置部と、
前記物体認識センサーの認識結果に基づいて、部品を収納している部品収納部から複数の前記部品を取り出して前記載置部上に複数の前記部品キットを作成するように前記ロボットアームの制御を行った後、前記環境認識センサーの認識結果に基づいて、作業台へ向けて移動するように前記自動搬送装置の制御を行い、前記物体認識センサーの認識結果に基づいて、前記複数の前記部品キットを前記載置部上から前記作業台へ載せ換えるように前記ロボットアームの制御を行う制御部と、
を備えることを特徴とするロボットシステム。 - 前記物体認識センサーは、
前記対象物に対して縞状のパターン光を投影する投影部と、
前記パターン光を撮像する撮像部と、
前記撮像部の撮像結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部からのレーザーを前記対象物に向けて反射して走査する光スキャナーと、を有する請求項1に記載のロボットシステム。 - 前記投影部は、
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部を有する請求項2に記載のロボットシステム。 - 前記駆動信号の波形は、正弦波状である請求項3に記載のロボットシステム。
- 前記自動搬送装置は、無軌道で移動可能である請求項1ないし4のいずれか1項に記載のロボットシステム。
- 前記制御部は、前記環境認識センサーの認識結果に基づいて、前記自動搬送装置の移動ルート情報を作成し、前記移動ルート情報に基づいて前記自動搬送装置を制御する請求項1ないし5のいずれか1項に記載のロボットシステム。
- 前記制御部は、前記物体認識センサーの認識結果に基づいて、前記自動搬送装置の移動または姿勢変更を行う請求項1ないし6のいずれか1項に記載のロボットシステム。
- 前記制御部は、前記部品収納部にある前記部品の姿勢が変更されるように、前記ロボットアームを駆動可能である請求項1ないし7のいずれか1項に記載のロボットシステム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017187414A JP2019059004A (ja) | 2017-09-28 | 2017-09-28 | ロボットシステム |
| CN201811118513.7A CN109571461B (zh) | 2017-09-28 | 2018-09-25 | 机器人系统 |
| US16/142,325 US11040453B2 (en) | 2017-09-28 | 2018-09-26 | Robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017187414A JP2019059004A (ja) | 2017-09-28 | 2017-09-28 | ロボットシステム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019059004A true JP2019059004A (ja) | 2019-04-18 |
Family
ID=65806382
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017187414A Pending JP2019059004A (ja) | 2017-09-28 | 2017-09-28 | ロボットシステム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11040453B2 (ja) |
| JP (1) | JP2019059004A (ja) |
| CN (1) | CN109571461B (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021047109A (ja) * | 2019-09-19 | 2021-03-25 | セイコーエプソン株式会社 | 深度センサーの制御方法、深度センサーおよびロボットシステム |
| JP2021089405A (ja) * | 2019-12-06 | 2021-06-10 | セイコーエプソン株式会社 | 光走査装置、三次元計測装置、及び、ロボットシステム |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106878697A (zh) * | 2016-06-29 | 2017-06-20 | 鲁班嫡系机器人 | 一种拍摄方法及其成像方法、装置和设备 |
| JP7222200B2 (ja) * | 2018-08-27 | 2023-02-15 | 株式会社リコー | 光学装置、計測装置、ロボット、電子機器、移動体、および造形装置 |
| JP7467041B2 (ja) * | 2018-09-27 | 2024-04-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
| JP7286963B2 (ja) * | 2018-12-26 | 2023-06-06 | セイコーエプソン株式会社 | ロボットシステムおよびロボット制御方法 |
| CN109927012B (zh) * | 2019-04-08 | 2021-07-30 | 清华大学 | 移动抓取机器人和自动取货方法 |
| US10766141B1 (en) * | 2019-05-09 | 2020-09-08 | Mujin, Inc. | Robotic system with a coordinated transfer mechanism |
| JP6841297B2 (ja) * | 2019-05-31 | 2021-03-10 | 株式会社デンソー | ビジュアルサーボシステム |
| CN110508706B (zh) * | 2019-09-18 | 2024-04-05 | 福州中澳科技集团股份有限公司 | 冲压产线机器人自动上下料系统及其控制方法 |
| JP7405575B2 (ja) * | 2019-11-19 | 2023-12-26 | ファナック株式会社 | ロボットの制御装置、ロボットの制御方法、および協働作業ユニット |
| JP7243603B2 (ja) * | 2019-12-09 | 2023-03-22 | トヨタ自動車株式会社 | 搬送ロボットシステム |
| JP7371577B2 (ja) * | 2020-06-09 | 2023-10-31 | トヨタ自動車株式会社 | 移動ロボット、サーバ装置、及び運搬方法 |
| CN113298876B (zh) * | 2020-07-20 | 2025-03-04 | 阿里巴巴集团控股有限公司 | 收纳位置识别方法及装置 |
| CN114789455B (zh) * | 2021-01-25 | 2024-06-18 | 上海松尚网络科技有限公司 | 一种可精确控制运动轨迹的图书盘点机器人 |
| US11731282B2 (en) * | 2021-03-03 | 2023-08-22 | Dishcare Inc. | Dish handling robot |
| JP7416003B2 (ja) * | 2021-03-30 | 2024-01-17 | 株式会社ダイフク | 自動倉庫システム、自動倉庫システムにおける物品の載置位置の位置ずれ修正方法、及びコンピュータプログラム |
| US12194627B1 (en) * | 2021-06-29 | 2025-01-14 | Amazon Technologies, Inc. | Modular robotic manipulation systems |
| JP7687117B2 (ja) * | 2021-07-30 | 2025-06-03 | セイコーエプソン株式会社 | ロボットシステムの制御方法およびロボットシステム |
| US12449546B2 (en) * | 2022-04-15 | 2025-10-21 | Zebra Technologies Corporation | Lidar sensor system for enabling or disabling use of a robotic arm |
Family Cites Families (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6614427B1 (en) * | 1999-02-01 | 2003-09-02 | Steve Aubrey | Process for making stereoscopic images which are congruent with viewer space |
| US6374155B1 (en) * | 1999-11-24 | 2002-04-16 | Personal Robotics, Inc. | Autonomous multi-platform robot system |
| US6836701B2 (en) * | 2002-05-10 | 2004-12-28 | Royal Appliance Mfg. Co. | Autonomous multi-platform robotic system |
| US7054716B2 (en) * | 2002-09-06 | 2006-05-30 | Royal Appliance Mfg. Co. | Sentry robot system |
| WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
| US20070061041A1 (en) * | 2003-09-02 | 2007-03-15 | Zweig Stephen E | Mobile robot with wireless location sensing apparatus |
| US7099745B2 (en) * | 2003-10-24 | 2006-08-29 | Sap Aktiengesellschaft | Robot system using virtual world |
| US7854108B2 (en) * | 2003-12-12 | 2010-12-21 | Vision Robotics Corporation | Agricultural robot system and method |
| US7908040B2 (en) * | 2004-07-15 | 2011-03-15 | Raytheon Company | System and method for automated search by distributed elements |
| JP3920317B2 (ja) * | 2004-08-02 | 2007-05-30 | 松下電器産業株式会社 | 物品運搬用ロボット |
| CN100556623C (zh) * | 2004-10-19 | 2009-11-04 | 松下电器产业株式会社 | 自动机械装置 |
| JP4348276B2 (ja) * | 2004-11-02 | 2009-10-21 | 本田技研工業株式会社 | ロボット制御装置 |
| US8935006B2 (en) * | 2005-09-30 | 2015-01-13 | Irobot Corporation | Companion robot for personal interaction |
| EP2533120B1 (en) * | 2005-12-02 | 2019-01-16 | iRobot Corporation | Robot system |
| US7539557B2 (en) * | 2005-12-30 | 2009-05-26 | Irobot Corporation | Autonomous mobile robot |
| US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
| US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
| US8180486B2 (en) * | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
| TWI306051B (en) * | 2006-12-14 | 2009-02-11 | Ind Tech Res Inst | Robotic apparatus with surface information displaying and interaction capability |
| US20090132088A1 (en) * | 2007-04-24 | 2009-05-21 | Tairob Ltd. | Transfer of knowledge from a human skilled worker to an expert machine - the learning process |
| US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
| JP2010089211A (ja) * | 2008-10-08 | 2010-04-22 | Panasonic Corp | 組立部品供給システム |
| JP5345869B2 (ja) | 2009-02-17 | 2013-11-20 | ファナック株式会社 | 部品キットを用いた生産システム |
| US8234010B2 (en) * | 2010-02-16 | 2012-07-31 | Deere & Company | Tethered robot positioning |
| JP2011215323A (ja) * | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 光走査装置及び画像表示装置 |
| US9020636B2 (en) * | 2010-12-16 | 2015-04-28 | Saied Tadayon | Robot for solar farms |
| JP5323155B2 (ja) * | 2011-09-08 | 2013-10-23 | 富士フイルム株式会社 | ミラー駆動装置及びその駆動方法並びに製造方法 |
| SG11201400958XA (en) * | 2012-01-25 | 2014-04-28 | Adept Technology Inc | Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles |
| WO2013119942A1 (en) * | 2012-02-08 | 2013-08-15 | Adept Technology, Inc. | Job management sytem for a fleet of autonomous mobile robots |
| US8996167B2 (en) * | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
| WO2014183042A1 (en) * | 2013-05-10 | 2014-11-13 | Cnh Industrial America Llc | Control architecture for multi-robot system |
| US20170183157A9 (en) * | 2013-06-18 | 2017-06-29 | Hdt Robotics, Inc. | Robotic manipulator for warehouses |
| JP6357949B2 (ja) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | 制御システム、ロボットシステム、及び制御方法 |
| US9427874B1 (en) * | 2014-08-25 | 2016-08-30 | Google Inc. | Methods and systems for providing landmarks to facilitate robot localization and visual odometry |
| US10065314B2 (en) * | 2014-08-29 | 2018-09-04 | General Electric Company | System and method for manipulation platform |
| JP6435400B2 (ja) * | 2015-03-06 | 2018-12-05 | 株式会社日立製作所 | 作業ロボット及びグリッパ |
| US9457970B1 (en) * | 2015-03-30 | 2016-10-04 | Google Inc. | Modular cross-docking system |
| DE102015004087B3 (de) * | 2015-03-31 | 2016-12-29 | gomtec GmbH | Fahrbarer Roboter mit Kollisionserkennung |
| US9625571B1 (en) * | 2015-08-06 | 2017-04-18 | X Development Llc | Disabling robot sensors |
| JP2017110991A (ja) * | 2015-12-16 | 2017-06-22 | セイコーエプソン株式会社 | 計測システム、計測方法、ロボット制御方法、ロボット、ロボットシステムおよびピッキング装置 |
| US9880561B2 (en) * | 2016-06-09 | 2018-01-30 | X Development Llc | Sensor trajectory planning for a vehicle |
| US10071856B2 (en) * | 2016-07-28 | 2018-09-11 | X Development Llc | Inventory management |
| CN106239471A (zh) * | 2016-08-29 | 2016-12-21 | 上海电机学院 | 一种转运机器人 |
| US10949940B2 (en) * | 2017-04-19 | 2021-03-16 | Global Tel*Link Corporation | Mobile correctional facility robots |
-
2017
- 2017-09-28 JP JP2017187414A patent/JP2019059004A/ja active Pending
-
2018
- 2018-09-25 CN CN201811118513.7A patent/CN109571461B/zh active Active
- 2018-09-26 US US16/142,325 patent/US11040453B2/en active Active
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021047109A (ja) * | 2019-09-19 | 2021-03-25 | セイコーエプソン株式会社 | 深度センサーの制御方法、深度センサーおよびロボットシステム |
| JP7310481B2 (ja) | 2019-09-19 | 2023-07-19 | セイコーエプソン株式会社 | 深度センサーの制御方法、深度センサーおよびロボットシステム |
| JP2021089405A (ja) * | 2019-12-06 | 2021-06-10 | セイコーエプソン株式会社 | 光走査装置、三次元計測装置、及び、ロボットシステム |
Also Published As
| Publication number | Publication date |
|---|---|
| US11040453B2 (en) | 2021-06-22 |
| CN109571461B (zh) | 2023-04-07 |
| US20190091870A1 (en) | 2019-03-28 |
| CN109571461A (zh) | 2019-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109551472B (zh) | 机器人系统 | |
| JP2019059004A (ja) | ロボットシステム | |
| KR102625214B1 (ko) | 상자들의 검출 | |
| JP5292998B2 (ja) | ロボット装置の制御方法及びロボット装置 | |
| US10107618B2 (en) | Coordinate measuring machine | |
| CN107000199B (zh) | 自行式关节机械手 | |
| JP5382621B2 (ja) | 移載装置 | |
| US8798794B2 (en) | Method and system for highly precisely positioning at least one object in an end position in space | |
| WO2019028075A1 (en) | INTELLIGENT ROBOTS | |
| CN104786865A (zh) | 一种基于单目视觉为电动汽车提供充电对接的装置和方法 | |
| JPH0431836B2 (ja) | ||
| CN103994728A (zh) | 物体检测装置及机器人系统 | |
| JP2008207262A (ja) | マニピュレータシステム | |
| WO2020105295A1 (ja) | 画像情報処理装置、把持システム、および画像情報処理方法 | |
| US20230419546A1 (en) | Online camera calibration for a mobile robot | |
| JP2018185203A (ja) | 移動ロボット | |
| JP2010152618A (ja) | ロボット、及びロボットの教示位置の直進開始位置の較正方法 | |
| JP2008264901A (ja) | 移動ロボット及びその自動連結方法、並びにパラレルリンク機構の駆動制御方法 | |
| US20220026538A1 (en) | Distance Measuring Device And Robot | |
| US20230241780A1 (en) | Robotic System And Robot Control Method | |
| US20240193808A1 (en) | Imaging device for calculating three-dimensional position on the basis of image captured by visual sensor | |
| KR20250108609A (ko) | 상품 이동 장치, 그 제어 방법 및 컴퓨터 프로그램 | |
| JP7310481B2 (ja) | 深度センサーの制御方法、深度センサーおよびロボットシステム | |
| JP2026014301A (ja) | 撮像装置、および、ロボット | |
| Lietmann et al. | Visual servoing for a non-holonomic mobile robot using a range-image-camera |