JP7685981B2 - 画像表示装置及び画像表示方法 - Google Patents
画像表示装置及び画像表示方法 Download PDFInfo
- Publication number
- JP7685981B2 JP7685981B2 JP2022194664A JP2022194664A JP7685981B2 JP 7685981 B2 JP7685981 B2 JP 7685981B2 JP 2022194664 A JP2022194664 A JP 2022194664A JP 2022194664 A JP2022194664 A JP 2022194664A JP 7685981 B2 JP7685981 B2 JP 7685981B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- work
- information
- unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本開示は、画像表示装置及び画像表示方法に関する。
操作対象である移動体の遠隔操作に不慣れな操作者は、移動体の車体感覚がつかめないため、移動体に搭載されたカメラからリアルタイムに撮影される撮影画像だけで、移動体を遠隔操作することが困難である。そこで、カメラで撮影した過去の撮影画像のうち、現在の移動体を客観視可能な撮影画像に、移動体の画像を重畳表示することで移動体の操作性を高める技術が提案されている(例えば特許文献1)。
しかしながら、障害物が多い屋内などで操作者が移動体を遠隔操作する場合には、移動体の後方から一定距離だけ離れた視点位置から視た画像は、操作者にとって好ましくない場合がある。
例えば、操作者が、移動体の後方から一定距離だけ離れた視点位置から視た画像を見ながら、移動体が右折して屋内の通路の奥に移動した後に戻ってくる移動を遠隔操作で行う場合を考える。この場合において、移動体が右折した直後には、通路を構成する壁または棚などの障害物によって移動体を表示できないという問題がある。また、移動体が戻って来る時に、一定距離を確保しようとすると、視点位置が大きく変更されるため、操作者は移動体の状況を容易に把握できないという問題がある。このように、障害物が多い屋内で遠隔操作を行うためには、移動体及びその周囲の表示の基準となる客観的な視点位置を適切化することが必要であった。
特に、操作者の遠隔操作による作業だけでなく、自律的に作業を行う移動体に対しては、移動体が自律的に作業できない状況を打開する時にだけ、操作者が、移動体を遠隔操作する運用が想定される。このような運用では、操作者は、遠隔操作を開始するまで移動体を監視しないため、遠隔操作の開始時に移動体の状況を適切に把握するためには、適切化された客観的な視点位置から視た画像が必要であった。
そこで、本開示は、上記のような問題点に鑑みてなされたものであり、客観的な視点位置を適切化可能な技術を提供することを目的とする。
本開示に係る画像表示装置は、移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、前記重畳画像を表示する表示部とを備える。
本開示によれば、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出し、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出し、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成する。このような構成によれば、客観的な視点位置を適切化することができる。
<実施の形態1>
従来、工場などの環境では、移動型ロボットに作業し易い環境が整えられ、従業員が規則を守って行動することによって、移動型ロボットが完全に自動化される運用が実現されてきた。移動型ロボットに作業し易い環境としては、例えば、床面の色及び照度が一定であること、通路が広く死角が少ないこと、通路に障害物を設置しないことなどが挙げられる。従業員が守る規則としては、例えば、移動型ロボットを避ける、移動型ロボットの移動経路を占領しないなどが挙げられる。
従来、工場などの環境では、移動型ロボットに作業し易い環境が整えられ、従業員が規則を守って行動することによって、移動型ロボットが完全に自動化される運用が実現されてきた。移動型ロボットに作業し易い環境としては、例えば、床面の色及び照度が一定であること、通路が広く死角が少ないこと、通路に障害物を設置しないことなどが挙げられる。従業員が守る規則としては、例えば、移動型ロボットを避ける、移動型ロボットの移動経路を占領しないなどが挙げられる。
一方、移動型ロボットを構成するバッテリー及びセンサなどの機器の性能向上と、安全センサの普及と、AI(artificial intelligence)技術の進歩による状況判断能力向上とによって、移動型ロボットの自律的な作業遂行能力が高まってきている。これに伴い、工場だけでなく、人の作業空間で自律的に作業する自律移動型ロボットの需要が高まり、その結果として、人と作業空間を共有する自律移動型ロボットの運用が増えてきている。
しかしながら、人向けに設計された作業空間で、自律移動型ロボットが完全に自動化された運用を実現することは難しい。例えば、顧客が訪れる商業施設または一般のオフィスでは、人が好印象を受ける装飾が施され、自律移動型ロボットと環境を共有する人は、自律移動型ロボットに対して特別な配慮を払わないことが多い。そのため、自律移動型ロボットが、人の作業空間で完全に自動化された運用できる状態にまで、自律移動型ロボットが遭遇する状況及び対応策を予め想定し尽くすことは困難である。
ところで、作業空間を共有する人の安全を優先するため、自律移動型ロボットが、センサからの不十分な情報により安全を確認できない、または、接触の可能性がある場所に人がいると判定した場合には、自律移動型ロボットの駆動が停止されることが多い。また、人は、想定外の状況であっても、自律移動型ロボットよりも画像情報などから柔軟に状況を把握することができるため、接触事故のリスクを適切に捉えることができる。加えて、人は、周囲への注意喚起、及び、映像から近くの人の動きを予想することもできる。
これらを考慮して、自律移動型ロボットが自律的に作業を遂行できない状況に陥った場合に、操作者が遠隔操作で自律移動型ロボットを作業に復帰させる運用が提案されている。操作者によって自律移動型ロボットが遠隔操作で作業に復帰できる状況は多く、予め想定すべき状況及び対応策を減らすことができるので、このような運用であれば、人の作業空間内でも自律移動型ロボットを適用可能な範囲を広げることができる。
このような運用では、操作者が、自律移動型ロボットを遠隔操作する機会は少ないため、複数の自律移動型ロボットを複数の操作対象として一人で遠隔操作することが想定される。作業環境は多種多様であるから、操作者が、自律移動型ロボットに対する復旧作業などの遠隔操作を適切に行うためには、複数の自律移動型ロボットの状況を容易に把握できることが重要である。
屋内の復旧作業ではなく、公道を走行する自動運転車両の復旧作業であれば、注意をすべき対象を道路に限定できるため、操作者は、自動運転車両の状況、形状及び移動特性を把握し易い。このため、LiDER(Light Detection and Ranging)または全方位カメラなどの、車載センサから得られる一人称視点の情報だけでも、操作者は自動運転車両の状況を容易に把握することができる。
しかしながら、屋内環境では、注意をすべき対象も、操作対象の形状及び移動特性も様々であるため、操作対象に搭載されたカメラによる一人称視点の映像では、操作者は、操作対象の状況、形状及び移動特性を把握することは困難である。このため、操作者が、操作対象の状況などを容易に把握するためには、一人称視点のような操作対象自身の視点から視た映像よりも、客観的な視点位置から視た、操作対象及びその周囲の映像を含む映像のほうが好ましい。
このような客観的な視点位置からの映像は、作業空間の天井などに設置された固定カメラで取得することは可能である。しかしながら、例えばオフィス環境などの机及び棚が多い場所では、机及び棚が死角となり、そのような固定カメラでは床面の状況が把握できない箇所がある。また例えば、商業施設では多くの監視カメラが設置されているが、オフィス環境では監視カメラは、出入口のみに設置されていたり、室内の監視カメラが少なかったりする。
そこで、自律移動型ロボットに搭載されたカメラの映像を処理して、当該カメラの映像から、客観的な視点位置から視た映像を生成すれば、作業空間の死角を低減することができる。また、遠隔操作を要請した自律移動型ロボットに搭載されたカメラの映像を、処理対象の映像として用いることにより、自律移動型ロボットが自律的に作業を遂行できなくなった地点の映像が撮影される可能性を高めることもできる。
以下で説明する本実施の形態1では、移動体から撮影された画像から、客観的な視点位置から視た、遠隔操作可能な移動体の位置を示す画像を生成及び表示可能に構成されている。以下では、画像撮影及び遠隔操作可能な移動体は、自律移動型ロボットであるものとして説明するが、これに限ったものではなく、例えば、遠隔操作で動作するその他の移動体、または、搭乗型の移動体などであってもよい。これらの移動体であっても、以下で説明する自律移動型ロボットと同様に、移動体の移動に支障が生じた場合などに、操作者は、客観的な視点位置からの画像を見ながら遠隔操作を行うことが可能となっている。
図1は、本実施の形態1に係る画像表示装置の構成を示すブロック図である。図1の画像表示装置には、自律移動型ロボットの作業情報と、カメラで撮影した撮影画像とが入力される。
作業情報は、自律移動型ロボットの移動を含む作業を示す情報であり、自律移動型ロボットが実施してきた作業、及び、自律移動型ロボットが今後に実施する予定の作業を示す。作業情報は、例えば、自律移動型ロボットがこれまでに移動した位置を時系列で示す移動経路情報、自律移動型ロボットに搭載されたセンサにて時系列で検出された情報、自律移動型ロボットを駆動する駆動部の駆動情報のログ情報などを含んでもよい。また、作業情報は、自律移動型ロボットの作業を示すだけでなく、自律移動型ロボットの作業空間内の監視カメラ及び自動ドアなどの周辺機器の作業を示す情報であってもよい。
撮影画像は、自律移動型ロボットから撮影される画像であり、自律移動型ロボットに搭載されたカメラで撮影される画像である。以下、自律移動型ロボットなどの移動体に搭載されたカメラを「搭載カメラ」と記すこともある。本実施の形態1では、搭載カメラは、自律移動型ロボットの全方向を撮影可能な全方位カメラであるとする。撮影画像は、例えば、時系列で撮影された画像であり、動画形式の画像であってもよいし、静止画形式の画像であってもよい。また撮影画像は、撮影された物体と搭載カメラとの間の距離を示す距離情報を含んでもよい。以下では説明を簡単にするために、撮影画像は、搭載カメラで撮影された、距離情報を含まない静止画形式の画像であるとして説明する。なお、撮影画像は、動画形式の画像から抽出可能な静止画形式の画像であってもよい。
図1の例では、作業環境情報は、自律移動型ロボットの作業実行中において変更が少ない情報であり、作業情報及び撮影画像と同様に画像表示装置に入力されてもよいし、画像表示装置に予め記憶されてもよい。作業環境情報は、自律移動型ロボットの作業空間を示す地図情報と、当該作業空間内の障害物に関する障害物情報とを含む。作業環境情報は、例えば自律移動型ロボットの形状及び型式といった移動体情報と、作業空間内の机、棚、監視カメラ、自動ドアの設置位置及び形状とを含んでもよい。地図情報は、例えば、事前に計測された3次元空間の情報と、自律移動型ロボットに搭載された距離センサの時系列情報から計算された3次元空間の情報とを含んでもよい。
なお、図1には示されていないが、自律移動型ロボットには、自律移動型ロボットを遠隔操作するための情報が入力される。自律移動型ロボットは、当該情報に基づいて遠隔操作される。
図1の画像表示装置は、取得部1と、作業位置算出部2と、撮影可能領域算出部3と、第1視点位置抽出部である自機視点位置抽出部4と、重畳画像生成部5と、表示部6とを備える。以下、画像表示装置の構成要素について詳細に説明する。
<取得部1>
取得部1は、自律移動型ロボットへの遠隔操作の要請である遠隔操作要請と、作業情報と、撮影画像とを取得する。遠隔操作要請は、自律移動型ロボットが自律的に作業を遂行することが困難と判定された場合などに、自律的な作業を再開可能にするための、操作者に対する遠隔操作の要請である。複数の自律移動型ロボット全体を管理する管理システム、または、自律移動型ロボットは、自律的な作業の遂行が困難と判定された場合などに、遠隔操作要請によって操作者に自律移動型ロボットへの遠隔操作を要請し、かつ、遠隔操作要請を取得部1に出力する。
取得部1は、自律移動型ロボットへの遠隔操作の要請である遠隔操作要請と、作業情報と、撮影画像とを取得する。遠隔操作要請は、自律移動型ロボットが自律的に作業を遂行することが困難と判定された場合などに、自律的な作業を再開可能にするための、操作者に対する遠隔操作の要請である。複数の自律移動型ロボット全体を管理する管理システム、または、自律移動型ロボットは、自律的な作業の遂行が困難と判定された場合などに、遠隔操作要請によって操作者に自律移動型ロボットへの遠隔操作を要請し、かつ、遠隔操作要請を取得部1に出力する。
遠隔操作要請は、遠隔操作が必要となった自律移動型ロボットを指定する情報を含むが、その他の付加情報を含んでもよい。付加情報は、例えば要請時間、作業優先度、要請理由、遠隔操作案などを含む。作業優先度は、例えば、人との衝突、または、人が近くにいる状況での事故のように、自律移動型ロボットが人に危害を与える危険が高い場合では「高」に設定され、危険が低く、かつ、作業を急いでいる場合には「中」に設定され、危険が低く、かつ、作業を急いでない場合には「低」に設定される。要請理由は、例えば、エラーコード、及び、遠隔操作を要請した理由などを示し、遠隔操作案は、要請理由に対する対応案を示す。
取得部1は、遠隔操作要請を取得するだけでなく、遠隔操作を要請した自律移動型ロボットに関する情報を取得する。自律移動型ロボットに関する情報は、自律移動型ロボットの作業情報と、それに関連する撮影画像とを含む。作業環境情報が予め記憶されていない場合には、取得部1は作業環境情報を取得する。遠隔操作要請などの取得後には、作業位置算出部2に処理が移行する。
<作業位置算出部2>
作業位置算出部2は、遠隔操作要請と、作業情報とに基づいて、遠隔操作要請が取得された際に自律移動型ロボットが作業していた位置を、作業位置として算出する。
作業位置算出部2は、遠隔操作要請と、作業情報とに基づいて、遠隔操作要請が取得された際に自律移動型ロボットが作業していた位置を、作業位置として算出する。
本実施の形態1では、まず、作業位置算出部2は、取得部1で取得された作業情報から、遠隔操作要請が取得された際に自律移動型ロボットが実施していた実施作業が、特定の位置周辺で実施する特定の作業であるか、特定の位置間の移動であるかを判定する。特定の作業は、例えば物品配送地点での積み降ろしまたは移載作業などの、移動が目的ではない一般作業である。
実施作業が特定の作業であると判定された場合には、作業位置算出部2は、特定の作業における一連の動作が実施されている地点を作業位置として決定する。実施作業が、特定の位置間の移動であると判定された場合には、作業位置算出部2は、遠隔操作の要請時点までの予め定められた期間の移動範囲、または、遠隔操作の要請時点後の停止位置までの予め定められた距離の移動範囲を作業位置として決定する。予め定められた期間は、例えば、要請時点までの10秒などのような規定の時間、または、停止した後の時間は含まない要請時点までの5秒などのような規定の時間である。一定距離は、例えば、要請時点後の停止位置までの5mなどのような規定の距離、または、自律移動型ロボットの大きさに比例した距離である。作業位置の算出後には、撮影可能領域算出部3に処理が移行する。
<撮影可能領域算出部3>
撮影可能領域算出部3は、作業環境情報と、作業位置算出部2で算出された作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する。
撮影可能領域算出部3は、作業環境情報と、作業位置算出部2で算出された作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する。
図2は、撮影可能領域の算出方法の一例を説明するための鳥観図である。図2では、自律移動型ロボットが棚に移載作業をしている時に、遠隔操作が要請された場面が示されている。図2には、黒丸で示される、遠隔操作を要請した自律移動型ロボット21と、ハッチングで示される作業位置22と、棚などの障害物23と、一点鎖線で囲まれた撮影可能領域24とが示されている。
本実施の形態1では、まず、撮影可能領域算出部3は、作業環境情報に含まれる地図情報の地図に、作業位置算出部2で算出された作業位置22と、作業環境情報に含まれる障害物情報が示す棚などの障害物23とを組み合わせる。そして、撮影可能領域算出部3は、障害物23に邪魔されずに作業位置22の画像を含む撮影画像を撮影可能な領域を、撮影可能領域24として算出する。例えば、撮影可能領域算出部3は、障害物23に当たることなく、作業位置22の各領域へ直線を引ける地点を集めた領域を、撮影可能領域24として算出する。
撮影可能領域24の算出方法は、作業位置22及び障害物23を多面体として地図情報の地図に投影し、その頂点を結ぶ幾何学的な算出方法でもよいし、適当に抽出した代表点が撮影可能領域24の点であるかを判定する探索的な算出方法でもよい。なお、撮影可能領域24の算出方法は、これらに限ったものではない。また、図2の例では、撮影可能領域算出部3は、鳥観図のような平面で撮影可能領域24を算出しているが、3次元的な立体空間で撮影可能領域24を算出してもよい。撮影可能領域24の算出後には、自機視点位置抽出部4に処理が移行する。
<自機視点位置抽出部4>
自機視点位置抽出部4は、作業情報と、撮影可能領域算出部3で算出された撮影可能領域24とに基づいて、自律移動型ロボット21が過去に移動した移動経路内の位置のうち、撮影可能領域24に含まれる位置を視点位置として抽出する。自機視点位置抽出部4は、例えば、視点位置を抽出する場合に、作業情報に含まれる上記移動経路情報を用いる。視点位置は、表示部6で表示される画像の視点となる位置である。なお、自機視点位置抽出部4は、自律移動型ロボット21の搭載カメラの光学系情報も考慮して視点位置を抽出してもよい。
自機視点位置抽出部4は、作業情報と、撮影可能領域算出部3で算出された撮影可能領域24とに基づいて、自律移動型ロボット21が過去に移動した移動経路内の位置のうち、撮影可能領域24に含まれる位置を視点位置として抽出する。自機視点位置抽出部4は、例えば、視点位置を抽出する場合に、作業情報に含まれる上記移動経路情報を用いる。視点位置は、表示部6で表示される画像の視点となる位置である。なお、自機視点位置抽出部4は、自律移動型ロボット21の搭載カメラの光学系情報も考慮して視点位置を抽出してもよい。
図3は、視点位置の抽出方法の一例を説明するための鳥観図である。本実施の形態1では、まず、自機視点位置抽出部4は、移動経路情報に基づいて、これまで自律移動型ロボットが移動してきた移動経路25を撮影可能領域24に重ね、移動経路25のうち撮影可能領域24に含まれる部分を、抽出経路として抽出する。図3の例では、連続的な抽出経路25a,25bが抽出されている。
それから、自機視点位置抽出部4は、作業位置22からの距離と、撮影可能領域24の境界からの距離と、抽出経路を通過した時間とに基づいて、抽出経路内の各位置の評価値を算出する。例えば、自機視点位置抽出部4は、移動経路情報と、自律移動型ロボット21の搭載カメラの光学系情報と、自律移動型ロボット21の大きさを示す情報とに基づいて、抽出経路内の位置での撮影画像に自律移動型ロボット21を重畳する。そして、自機視点位置抽出部4は、自律移動型ロボット21が撮影画像内に占める割合が一定範囲に近づくほど、当該位置の評価値を高くしてもよい。また例えば、自機視点位置抽出部4は、抽出経路内の位置の撮影可能領域24の境界からの距離が、一定値よりも小さくなるほど、当該位置の評価値を低くしてもよい。また例えば、自機視点位置抽出部4は、抽出経路内の位置を自律移動型ロボット21が通過した時間から現在の時間までの期間が長いほど、当該位置の評価値を低くしてもよい。
なお、評価値が算出される位置は、例えば、抽出経路を適当に分割し、各分割内の位置であってもよいし、撮影距離のような評価値を計算するための一部の指標が極大値を取る位置であってもよい。また、評価値が算出される位置は、これらに限ったものではない。
次に、自機視点位置抽出部4は、各抽出経路について、評価値が一番高い位置を視点位置の候補として決定する。そして、自機視点位置抽出部4は、視点位置の候補の評価値を比較し、評価値が一番高い候補を視点位置として決定する。
図3の例では、自機視点位置抽出部4は、抽出経路25a内の各位置で評価値を算出し、評価値が一番高い位置を視点位置の候補26aとして決定する。同様に、自機視点位置抽出部4は、抽出経路25b内の各位置で評価値を算出し、評価値が一番高い位置を視点位置の候補26bとして決定する。自機視点位置抽出部4は、視点位置の候補26a,26bの評価値を比較し、評価値が一番高い候補を視点位置として決定する。例えば、候補26bは、候補26aよりも撮影画像の撮影が過去ではあるが、候補26aよりも作業位置22から一定距離が確保できる場合には、候補26bの評価値は候補26aの評価値よりも高くなり、候補26bが視点位置として決定される。視点位置の抽出後には、重畳画像生成部5に処理が移行する。
<重畳画像生成部5>
重畳画像生成部5は、撮影画像と、作業位置算出部2で算出された作業位置22と、自機視点位置抽出部4で抽出された視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した重畳画像を生成する。本実施の形態1では、対応位置画像には、遠隔操作要請が取得部1で取得された際に自律移動型ロボット21が実施していた作業を示す作業画像が用いられる。
重畳画像生成部5は、撮影画像と、作業位置算出部2で算出された作業位置22と、自機視点位置抽出部4で抽出された視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した重畳画像を生成する。本実施の形態1では、対応位置画像には、遠隔操作要請が取得部1で取得された際に自律移動型ロボット21が実施していた作業を示す作業画像が用いられる。
本実施の形態1では、まず、重畳画像生成部5は、取得部1で取得された撮影画像の中から、自機視点位置抽出部4で抽出された視点位置を自律移動型ロボット21が通過した時に撮影された撮影画像を、客観視点環境画像として抽出する。例えば、重畳画像生成部5は、自律移動型ロボット21が視点位置を複数回通過または複数回停止するなどして、視点位置について複数の撮影画像が存在する場合には、その中から最新の撮影画像を、客観視点環境画像として抽出する。また例えば、重畳画像生成部5は、視点位置を通過した時に撮影された撮影画像が存在しない場合には、視点位置を通過した時点前後で、かつ、その時点に最も近い時点で撮影された撮影画像を、客観視点環境画像として抽出する。
それから、重畳画像生成部5は、作業情報に基づいて、遠隔操作要請が取得部1で取得された際に自律移動型ロボット21が実施していた作業を再現する作業画像を生成する。再現される作業は、例えば、作業位置算出部2で作業位置の算出対象とした実施作業である。作業画像は、背景などの環境の画像を含まずに、自律移動型ロボット21の動作のみを含んでもよい。作業画像は、例えば自律移動型ロボット21の3Dモデルを動作させる画像であってもよい。
次に、重畳画像生成部5は、客観視点環境画像に作業画像を重畳することで、重畳画像である作業状況再現画像を生成する。複数の画像間における、各画像の座標系の校正方法などは、広く知られているためその詳細な説明は省略する。作業状況再現画像の生成後には、情報表示操作部に処理が移行する。
なお、以上の説明では、重畳画像生成部5は、視点位置で撮影された撮影画像を、客観視点環境画像としてそのまま用いたが、他の実施の形態で説明するようにこれに限ったものではない。また、重畳画像生成部5は、撮影画像内に示される物品の名前、及び、他機能で得られた付加情報などを、客観視点環境画像に重畳してもよい。
<表示部6>
表示部6は、重畳画像である作業状況再現画像を表示する。なお、表示部6は、例えば、遠隔操作の要請状態、施設の地図情報、操作対象の情報、長時間にわたる過去の撮影画像など、遠隔操作に有用な情報も表示してもよい。また、表示部6は、操作者の操作によって、表示情報を切り替えてもよい。また、表示部6は、例えば、無線LAN(Local Area Network)など無線技術によって重畳画像生成部5と通信可能に構成され、自律移動型ロボット21の遠隔に位置する操作者が見ることが可能な表示装置である。
表示部6は、重畳画像である作業状況再現画像を表示する。なお、表示部6は、例えば、遠隔操作の要請状態、施設の地図情報、操作対象の情報、長時間にわたる過去の撮影画像など、遠隔操作に有用な情報も表示してもよい。また、表示部6は、操作者の操作によって、表示情報を切り替えてもよい。また、表示部6は、例えば、無線LAN(Local Area Network)など無線技術によって重畳画像生成部5と通信可能に構成され、自律移動型ロボット21の遠隔に位置する操作者が見ることが可能な表示装置である。
<実施の形態1のまとめ>
以上のような本実施の形態1に係る画像表示装置によれば、自律移動型ロボット21が過去に移動した移動経路25のうち、撮影可能領域24に含まれる位置を視点位置として抽出し、撮影画像と作業位置22と視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した作業状況再現画像を生成して表示することが可能となっている。このような構成によれば、操作者は、自律移動型ロボット21が作業を継続できなくなった状況を、客観的な視点位置から視た作業状況再現画像によって確認することで、自律移動型ロボット21の状況を容易に把握することができる。
以上のような本実施の形態1に係る画像表示装置によれば、自律移動型ロボット21が過去に移動した移動経路25のうち、撮影可能領域24に含まれる位置を視点位置として抽出し、撮影画像と作業位置22と視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した作業状況再現画像を生成して表示することが可能となっている。このような構成によれば、操作者は、自律移動型ロボット21が作業を継続できなくなった状況を、客観的な視点位置から視た作業状況再現画像によって確認することで、自律移動型ロボット21の状況を容易に把握することができる。
特に、障害物が多い屋内作業では、客観的な視点位置から視た自律移動型ロボット21の作業位置の表示が、障害物などによって妨げられることがある。これに対して本実施の形態1では、撮影可能領域24によって客観的な視点位置を適切化することができるので、客観的な視点位置から視た自律移動型ロボット21の作業位置の表示が、障害物などによって妨げられることを抑制することができる。また、操作者が、取得部1で取得された撮影画像の中から、作業状況再現画像を生成するための撮影画像を探す手間をなくすことができる。
また本実施の形態1では、作業位置22を示す対応位置画像は、遠隔操作要請が取得された際に自律移動型ロボット21が実施していた作業を示す作業画像を含む。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の作業を容易に把握することができる。
<変形例>
実施の形態1では、自機視点位置抽出部4は、視点位置の候補の決定のような視点位置の抽出だけでなく、視点位置そのものの決定を行ったが、これに限ったものではない。例えば、自機視点位置抽出部4における視点位置の抽出が、視点位置の候補の決定と、当該候補の評価値の算出とを含み、操作者が、評価値に基づいて視点位置の候補の中から視点位置を決定してもよい。この場合、自機視点位置抽出部4は、視点位置の候補と、当該候補の評価値とを操作者に表示してもよい。
実施の形態1では、自機視点位置抽出部4は、視点位置の候補の決定のような視点位置の抽出だけでなく、視点位置そのものの決定を行ったが、これに限ったものではない。例えば、自機視点位置抽出部4における視点位置の抽出が、視点位置の候補の決定と、当該候補の評価値の算出とを含み、操作者が、評価値に基づいて視点位置の候補の中から視点位置を決定してもよい。この場合、自機視点位置抽出部4は、視点位置の候補と、当該候補の評価値とを操作者に表示してもよい。
図4は、操作者への自機視点位置抽出部4の表示例を示す図である。この図4の例では、地図上に自律移動型ロボット21と、作業位置22と、障害物23と、撮影可能領域24と、自律移動型ロボット21の移動経路25とが表示されている。また、撮影可能領域24内の抽出経路25a,25bの中で、評価値が高い位置が、視点位置の候補26a,26bとして操作者に表示されている。このような場合に、自機視点位置抽出部4は、候補26a,26bの中から操作者に選択された候補を、視点位置として決定してもよい。
なお、操作者は、候補26a,26bの中から視点位置を決定するのではなく、抽出経路25a,25b上の任意の地点を視点位置として決定してもよい。この場合、自機視点位置抽出部4は、撮影可能領域24内の抽出経路25a,25bを強調表示してもよい。また、抽出経路25a,25bは、線の色または太さで撮影時間を識別可能に表示されてもよい。例えば、抽出経路内の位置を自律移動型ロボット21が通過した時間から現在の時間までの期間が長いほど、当該位置の線の色を薄くしたり、当該位置の線の赤及び青などの色合いを変化させたり、当該位置の線を細くしたりしてもよい。
また、自律移動型ロボット21の搭載カメラが全方位カメラでない場合には、図5のように、候補26a,26bについて、搭載カメラの撮影範囲27a,27bが表示されてもよい。このような構成によれば、搭載カメラが全方位カメラでなくても、適切な撮影画像を作業状況再現画像に用いることができる。
また例えば、自機視点位置抽出部4における視点位置の抽出が、視点位置の候補の決定と、その評価値の算出とを含み、重畳画像生成部5が、評価値に基づいて視点位置の候補の中から視点位置を決定してもよい。
<実施の形態2>
本実施の形態2では、周辺環境の3次元空間のテクスチャ画像に、時系列の撮影画像を使用して更新することで、重畳画像生成部5の客観視点環境画像として使用可能、かつ、時系列で変更可能な3次元の仮想環境画像を生成するように構成されている。
本実施の形態2では、周辺環境の3次元空間のテクスチャ画像に、時系列の撮影画像を使用して更新することで、重畳画像生成部5の客観視点環境画像として使用可能、かつ、時系列で変更可能な3次元の仮想環境画像を生成するように構成されている。
図6は、本実施の形態2に係る画像表示装置の構成を示すブロック図である。図6の画像表示装置の構成は、図1の画像表示装置の構成に、環境画像生成部7が追加された構成と同様である。
本実施の形態2では、作業環境情報は、作業空間内の固定物についての3次元空間の位置姿勢情報を含み、3次元空間の位置姿勢情報は、固定物の3次元オブジェクトを示す。
環境画像生成部7は、時系列の撮影画像と、作業環境情報に含まれる位置姿勢情報とに基づいて、3次元オブジェクトに、時系列の撮影画像をテクスチャとして貼り付けることによって、時系列で変更可能な3次元の仮想環境画像を生成する。以下、仮想環境画像の生成例について説明する。
まず、本実施の形態2では、環境画像生成部7は、位置姿勢情報のうち、自機視点位置抽出部4で抽出された視点位置から撮影可能な3次元オブジェクトを示す位置姿勢情報を、視界内物体情報として抽出する。視界内物体情報は、例えば、どの3次元オブジェクトのどの表面が撮影可能かについての情報を含む。
それから、環境画像生成部7は、遠隔操作が要請されるまでに撮り貯めた撮影画像に、視界内物体情報の3次元オブジェクトに対応する撮影画像が含まれているかを、時系列に沿って判定する。
3次元オブジェクトに対応する撮影画像が含まれていると判定された場合には、環境画像生成部7は、時系列に沿って、当該3次元オブジェクトに撮影画像をテクスチャとして貼り付けることによって仮想環境画像を生成する。これにより、自機視点位置抽出部4で抽出された視点位置から視た、時系列で変更可能な3次元の仮想環境画像が生成される。
3次元オブジェクトに対応する撮影画像が含まれていると判定されなかった場合には、環境画像生成部7は、取得部1で取得された撮影画像の中から、自機視点位置抽出部4で抽出された視点位置で撮影された撮影画像を抽出する。
重畳画像生成部5は、環境画像生成部7で生成された仮想環境画像、または、抽出された撮影画像を、実施の形態1で説明した客観視点環境画像として用いることによって、作業状況再現画像を生成する。実施の形態1では、視点位置で撮影した静的な撮影画像を客観視点環境画像として用いたが、本実施の形態2では、時系列で変更可能な3次元の仮想環境画像を客観視点環境画像として用いることが可能である。仮想環境画像からなる客観視点環境画像に、自律移動型ロボット21の作業を示す作業画像を重畳する場合、作業画像の時間と、客観視点環境画像の時間とを合わせれば、自律移動型ロボット21の状況の再現度を高めることができる。
なお、作業画像の時間と、客観視点環境画像の時間とを異ならせてもよい。図7は、作業画像の時間と、客観視点環境画像の時間とを異ならせて、作業状況再現画像を生成するための画面例である。図7の画面下部には、自律移動型ロボットの作業画像の時間と、3次元オブジェクトを規定する視点位置の時間と、3次元オブジェクトにテクスチャとして貼り付けられる撮影画像の時間とを指定するシークバーが設けられている。この例では、視点位置の時間と、撮影画像の時間とが、客観視点環境画像の時間に含まれる。
操作者が、シークバーの時間を指定する操作を行うことで、作業画像、視点位置及び撮影画像に対して指定された時間の組合せで、客観視点環境画像が再現される。なお、3次元オブジェクトと撮影画像とを組み合わせる手法は様々な方法が既に提案されており、上記に限ったものではない。
<実施の形態2のまとめ>
本実施の形態2によれば、時系列の前記撮影画像と、作業空間内の固定物についての3次元空間の位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を生成する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
本実施の形態2によれば、時系列の前記撮影画像と、作業空間内の固定物についての3次元空間の位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を生成する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
<実施の形態3>
本実施の形態3では、移動障害物の位置姿勢情報を算出するように構成されている。
本実施の形態3では、移動障害物の位置姿勢情報を算出するように構成されている。
図8は、本実施の形態3に係る画像表示装置の構成を示すブロック図である。図8の画像表示装置の構成は、図1の画像表示装置の構成に、移動障害物情報算出部8が追加された構成と同様である。
なお、本実施の形態3に係る物体は、固定障害物と移動障害物との少なくともいずれか1つを含む。固定障害物は、例えば、壁、扉、棚、及び、机などの位置姿勢の変更が少ない障害物である。移動障害物は、例えば、人及び移動型ロボットなどの移動体、並びに、椅子などの位置姿勢の変更が多い障害物である。
本実施の形態3では、作業環境情報の障害物情報は、作業空間内の固定障害物の位置姿勢情報を含む。
移動障害物情報算出部8は、作業空間内の物体の位置姿勢情報と、作業環境情報に含まれる固定障害物の位置姿勢情報とに基づいて、固定障害物と区別して表示部6で表示される移動障害物の位置姿勢情報を算出する。作業空間内の物体の位置姿勢情報は、例えば、自律移動型ロボット21などに搭載されたセンサで認識された、固定障害物と移動障害物との少なくともいずれか1つを含む物体の位置姿勢情報である。移動障害物情報算出部8は、作業空間内の物体の位置姿勢情報から、固定障害物の位置姿勢情報を差し引くことで、移動障害物の位置姿勢情報を算出する。例えば、LiDERまたはステレオカメラによって認識される距離情報が、物体の位置姿勢情報として用いられてもよい。この場合、移動障害物情報算出部8は、距離情報から固定障害物の位置姿勢情報を除去することによって、移動障害物の情報を算出してもよい。
移動障害物は、例えば、重畳画像生成部5の客観視点環境画像において、色及び文字、その他画像効果などで、強調表示される。重畳画像生成部5の客観視点環境画像における強調表示は、表示部6で表示される作業状況再現画像に反映される。なお、算出された位置姿勢情報で示される移動障害物は、重畳画像生成部5の客観視点環境画像を経由せずに、表示部6の作業状況再現画像において強調表示されてもよい。
なお、以上の構成において、事前に移動障害物のモデルが得られる場合には、移動障害物情報算出部8は、距離情報を含まない撮影画像の物体の中からモデルマッチングによって移動障害物を認識して、移動障害物の位置姿勢情報を算出してもよい。例えば椅子、人、及び、移動型ロボットなどの移動障害物のモデルを作業環境情報に含めておき、移動障害物情報算出部8は、そのモデルを参照してモデルマッチングを行う。人に関しては精確なモデルマッチングではなく、人という一括りのモデルマッチングが行われてもよい。また、移動障害物情報算出部8は、物体にタグ付けを行うことによって、例えば、人、移動型ロボット、椅子などの物体を区別するタグ情報を生成してもよい。このタグ情報は、重畳画像生成部5の客観視点環境画像、または、表示部6の作業状況再現画像において、移動障害物の種別に合わせた強調表現の変更、または、移動障害物の名前の付加などに用いられてもよい。
作業環境情報に含まれる固定障害物の位置姿勢情報において、運用中に固定障害物と移動障害物とが切り換えられてもよい。例えば、距離情報による認識結果が前回の認識結果と異なる場合には、前回の認識時点における固定障害物が、移動障害物に切り換えられてもよい。逆に、距離情報による認識結果が一定期間変化しない場合には、前回の認識時点における移動障害物が、固定障害物に切り換えられてもよい。
<実施の形態3のまとめ>
固定障害物の影響は、作業を計画する際に予め想定しているため、自律移動型ロボット21の作業遂行を阻害する可能性が低い。一方、移動障害物の影響は、作業を計画する際に予め想定し尽くすことができないため、自律移動型ロボット21の作業遂行を阻害する可能性が比較的高くなる。
固定障害物の影響は、作業を計画する際に予め想定しているため、自律移動型ロボット21の作業遂行を阻害する可能性が低い。一方、移動障害物の影響は、作業を計画する際に予め想定し尽くすことができないため、自律移動型ロボット21の作業遂行を阻害する可能性が比較的高くなる。
そこで、本実施の形態3によれば、固定障害物と区別して表示部6で表示される移動障害物の位置姿勢情報を算出する。このような構成によれば、移動障害物を固定障害物と区別して表示することができるため、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
<実施の形態4>
本実施の形態4では、遠隔操作を要請した自律移動型ロボット21の搭載カメラ以外の別のカメラの画像を利用可能に構成されている。
本実施の形態4では、遠隔操作を要請した自律移動型ロボット21の搭載カメラ以外の別のカメラの画像を利用可能に構成されている。
図9は、本実施の形態4に係る画像表示装置の構成を示すブロック図である。図9の画像表示装置の構成は、図1の画像表示装置の構成に、第2視点位置抽出部である他機視点位置抽出部9が追加された構成と同様である。
他機視点位置抽出部9は、遠隔操作を要請した自律移動型ロボット21の搭載カメラ以外の別のカメラについて別の視点位置を算出する。以下では、別のカメラは、遠隔操作を要請した自律移動型ロボット21以外の別の自律移動型ロボット(つまり別の移動体)に搭載されたカメラである場合について主に説明する。
移動経路が異なる点を除けば、他機視点位置抽出部9の処理は、自機視点位置抽出部4の処理と同様である。つまり、他機視点位置抽出部9は、別の自律移動型ロボットが過去に移動した別の移動経路上の位置のうち、撮影可能領域24に含まれる位置を別の視点位置として抽出する。
具体的には、撮影可能領域24が算出された後、他機視点位置抽出部9は、別の自律移動型ロボットの移動経路情報に基づいて、これまで別の自律移動型ロボットが移動してきた別の移動経路を撮影可能領域24に重ね、別の移動経路のうち撮影可能領域24に含まれる部分を、別の抽出経路として抽出する。他機視点位置抽出部9は、別の抽出経路内の各位置の評価値を算出し、評価値に基づいて別の視点位置を決定する。
重畳画像生成部5は、別の自律移動型ロボットから撮影された別の撮影画像と、作業位置22と、他機視点位置抽出部9で決定された別の視点位置とに基づいて、別の視点位置で撮影された別の撮影画像に対応位置画像を重畳する。重畳画像生成部5は、このような重畳を行うことによって、表示部6で表示される作業状況再現画像を生成する。なお、重畳画像生成部5は、自機視点位置抽出部4で算出された視点位置の評価値と、他機視点位置抽出部9で算出された別の視点位置の評価値とを比較し、それらの中から評価値が高い方についてのみ作業状況再現画像を生成してもよい。
重畳画像生成部5は、自律移動型ロボットの搭載カメラの画像ではなく、例えば、天井に固定された監視カメラなどの画像を用いてもよい。監視カメラなどの画像では、別の視点位置は変更されない。
また、適切な別の視点位置が得られない場合には、操作者は遠隔操作によって別の自律移動型ロボットを移動させてもよい。
図10は、操作者への表示例を示す図である。図10では、図4の表示に、固定された監視カメラの視点位置28及び撮影範囲29と、別の自律移動型ロボットの移動先30とが追加されている。図10のような地図が操作者に表示され、操作者が移動先30を地図上で選択した場合に、別の自律移動型ロボットは当該移動先30に移動するように構成されてもよい。なお、別の自律移動型ロボットでは、自律移動型ロボット21が遠隔操作を要請した後でも撮影可能である。このため、表示部6が、別の自律移動型ロボットで撮影された画像を表示する場合には、当該画像が遠隔操作要請後の画像であるか、遠隔操作要請前の画像であるかを、表示アイコンの色などで識別表示してもよい。また、表示部6は、シークバーなどで指定された撮影時間の画像を表示してもよい。
<実施の形態4のまとめ>
本実施の形態4によれば、別の自律移動型ロボットなどの別の移動体から撮影された画像を利用することができる。これにより、自律移動型ロボット21の撮影画像に撮影可能領域24内で適切な撮影画像がない場合、または、操作者が撮影画像と撮影方向が異なる画像が欲しい場合などに、別の移動体から撮影された画像を用いることができる。この結果、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
本実施の形態4によれば、別の自律移動型ロボットなどの別の移動体から撮影された画像を利用することができる。これにより、自律移動型ロボット21の撮影画像に撮影可能領域24内で適切な撮影画像がない場合、または、操作者が撮影画像と撮影方向が異なる画像が欲しい場合などに、別の移動体から撮影された画像を用いることができる。この結果、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
<実施の形態5>
本実施の形態5では、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成可能に構成されている。
本実施の形態5では、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成可能に構成されている。
図11は、本実施の形態5に係る画像表示装置の構成を示すブロック図である。図11の画像表示装置の構成は、図1の画像表示装置の構成に、仮想画像生成部10が追加された構成と同様である。
仮想画像生成部10は、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成する。仮想画像生成部10は、遠隔操作によって自律移動型ロボット21を操作する前に、当該遠隔操作に従って自律移動型ロボット21の3Dモデルなどを動作させた場合のシミュレーション画像を生成する。シミュレーション画像は、表示部6で作業状況再現画像と重畳表示される。なお、シミュレーション画像は、表示部6で作業状況再現画像と重畳表示されるように、重畳画像生成部5の客観視点環境画像と重畳されてもよい。
<実施の形態5のまとめ>
操作者が複数の自律移動型ロボットを遠隔操作する運用が想定されており、そのような運用では、遠隔操作要請後の遠隔操作ミスが事故に繋がる可能性がある。特に、自律移動型ロボットの種類は多種多様であり、自律移動型ロボットごとに操作方法及び挙動が異なるため、そのような可能性は比較的高くなると考えられる。
操作者が複数の自律移動型ロボットを遠隔操作する運用が想定されており、そのような運用では、遠隔操作要請後の遠隔操作ミスが事故に繋がる可能性がある。特に、自律移動型ロボットの種類は多種多様であり、自律移動型ロボットごとに操作方法及び挙動が異なるため、そのような可能性は比較的高くなると考えられる。
これに対して、本実施の形態5によれば、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成する。このような構成によれば、操作者は、実際に自律移動型ロボット21を遠隔操作する前に、作業状況再現画像と重畳表示されるシミュレーション画像を見て、遠隔操作に問題無いかを確認することができる。これにより、操作者は、遠隔操作に問題無いことが確認できるまで、遠隔操作を変更することができるので、遠隔操作ミスを低減することができる。
<実施の形態6>
本実施の形態6では、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得可能に構成されている。
本実施の形態6では、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得可能に構成されている。
図12は、本実施の形態6に係る画像表示装置の構成を示すブロック図である。図12の画像表示装置の構成は、図1の画像表示装置の構成に、被作業物体画像取得部11が追加された構成と同様である。
被作業物体画像取得部11は、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得する。自律移動型ロボット21から被作業物体への作業は、自律移動型ロボット21のエンドエフェクターなどを用いた作業を含む。被作業物体の画像の撮影には、例えば、搭載カメラのうち、3次元空間画像をリアルタイムで撮影可能であり、自律移動型ロボット21本体から移動可能な移動型カメラが用いられる。被作業物体画像取得部11は、被作業物体を認識し易い画像が撮影されるように、移動型カメラを移動させることにより、移動型カメラの視点位置を変更してもよい。
まず、本実施の形態6では、被作業物体画像取得部11は、被作業物体またはエンドエフェクターの3次元空間画像が必要であるか否かを判定する。例えば、遠隔操作要請が取得された際に自律移動型ロボット21が実施していた作業内容が、エンドエフェクターを用いた被作業物体への操作である場合には、3次元空間画像が必要であると判定される。また、エンドエフェクターが操作されている場合、または、エンドエフェクターの近くに何らかの物体がある場合などにも、3次元空間画像が必要であると判定されてもよい。3次元空間画像が必要であると判定されている場合に、被作業物体画像取得部11は、被作業物体を撮影している移動型カメラの視点位置を、被作業物体撮影位置として決定する。
表示部6は、被作業物体撮影位置からの被作業物体画像を操作者に表示する。遠隔操作要請時の作業前後でエンドエフェクターのみが動作する場合には、表示部6は、客観視点環境画像を表示せずに、被作業物体画像のみを表示してもよい。
ところで、作業内容によって操作者に適した画像は異なる。自律移動型ロボット21本体を移動させる作業では、自律移動型ロボット21の全体を確認可能な客観的な視点位置での画像が、操作者の状況判断に適している。一方、自律移動型ロボット21が、エンドエフェクターを用いて被作業物体の移載作業などを行う場合には、エンドエフェクターと被作業物体とを中心とし、視点位置を自由に変更可能な3次元空間画像が、操作者の状況判断に適している。
特に、被作業物体を操作する際には、固定された視点だけの画像では距離感が把握し難いため、作業者が視点位置を変更しながら作業を確認できることが望まれる。一方、被作業物体を大きく移動させる作業を行う際には、作業者が、自律移動型ロボット21本体の状態と、エンドエフェクターによる被作業物体の状態との両方を同時に確認できることが望ましい。そこで、表示部6は、遠隔操作要請時の作業内容に基づいて、客観視点環境画像と被作業物体画像とを並べた表示と、客観視点環境画像及び被作業物体画像のいずれかの表示とを選択的に行ってもよい。なお、客観視点環境画像と被作業物体画像とを並べた表示は、作業者が遠隔操作要請時に作業を確認する場合に有用だけでなく、作業者が遠隔操作を行う場合にも有用である。
被作業物体画像取得部11は、自律移動型ロボット21が作業を開始する前の時点(例えばシステム立上げ時点または他の作業時点)に撮影した3次元空間画像と、リアルタイムの被作業物体画像とを組み合わせることで、死角などを低減してもよい。また、3次元空間画像を拡張できる場合には、拡張された3次元空間画像が表示部6に表示されてもよい。このような表示を行っている場合に、操作者が3次元空間画像内で視点位置を変更した場合には、移動型カメラの視点位置が変更されてもよい。このような構成によれば、操作者は、3次元空間画像内で視点位置を変更することで、被作業物体とエンドエフェクターとを確認することができる。
<実施の形態6のまとめ>
本実施の形態6によれば、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21が被作業物体に対して行う作業を容易に把握することができる。
本実施の形態6によれば、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21が被作業物体に対して行う作業を容易に把握することができる。
<実施の形態7>
本実施の形態7では、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
本実施の形態7では、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
図13は、本実施の形態7に係る画像表示装置の構成を示すブロック図である。図13の画像表示装置の構成は、図1の画像表示装置の構成に、撮影位置取得部12と、計画作成部13とが追加された構成と同様である。
撮影位置取得部12は、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する。撮影位置取得部12は、作業情報と作業環境情報とに基づいて、作業空間内の各地点で撮影画像が撮影された時間を管理し、例えば15分などの一定時間に亘って撮影画像が撮影されていない地点があれば、その地点を撮影位置として取得する。
計画作成部13は、撮影位置に基づいて、自律移動型ロボット21が移動すべき経路の計画、つまり自律移動型ロボット21の移動経路の計画を作成する。計画作成部13は、自律移動型ロボット21の作業計画に基づいて移動経路及び作業指示を計画するが、撮影位置取得部12が撮影位置を取得している場合には、当該撮影位置を考慮して移動経路及び作業指示を計画する。撮影位置は、自律移動型ロボット21の移動経路の目的地に用いられてもよいし、当該移動経路の経由地に用いられてもよい。自律移動型ロボット21の移動経路の計画方法などは、広く知られているため、その詳細な説明は省略する。
なお、実施の形態1の変形例で説明した、視点位置の候補の表示、及び、操作者による候補の選択と同様に、撮影位置の候補の表示、及び、選択者による候補の選択が行われてもよい。例えば、撮影位置取得部12は、各撮影位置の候補について、撮影画像が撮影されてから経過した時間に比例する要求度を算出し、各撮影位置の候補と、その要求度とを表示してもよい。そして、撮影位置取得部12は、操作者によって選択された撮影位置の候補の要求度を一定値だけ大きくし、要求度が閾値以上である撮影位置の候補を、撮影位置として取得してもよい。
<実施の形態7のまとめ>
本実施の形態7によれば、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点を、自律移動型ロボット21に移動させる。このような構成によれば、当該地点の撮影画像を更新することができ、客観視点環境画像に適切な撮影画像が得られる可能性を高めることができる。
本実施の形態7によれば、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点を、自律移動型ロボット21に移動させる。このような構成によれば、当該地点の撮影画像を更新することができ、客観視点環境画像に適切な撮影画像が得られる可能性を高めることができる。
<実施の形態8>
本実施の形態8では、作業空間のうち、人が作業を完了した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
本実施の形態8では、作業空間のうち、人が作業を完了した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
図14は、本実施の形態8に係る画像表示装置の構成を示すブロック図である。図14の画像表示装置の構成は、図1の画像表示装置の構成に、計画作成部13と、作業完了位置取得部14とが追加された構成と同様である。
作業完了位置取得部14は、作業空間のうち、人が作業を完了した地点を、撮影位置として取得する。例えば、作業完了位置取得部14は、人が一定時間以上に亘って留まった後に移動した地点を、人が作業を完了した位置が行われた地点、つまり撮影位置として取得する。人の移動の判定は、カメラ画像などによるトラッキングで判定されてもよいし、人が従業員である場合には、作業員の作業情報から判定されてもよい。
計画作成部13は、実施の形態7に係る計画作成部13と同様である。
<実施の形態8のまとめ>
人が作業を完了した後では、設置物の設置状況が変更されている可能性が高い。例えば、オフィス環境では、設置物の設置状況の変更として、椅子の移動などがある。物品の販売施設では、設置物の設置状況の変更として、物品の設置位置の変更などがある。飲食店では、店員及び客が作業をした後に、設置物の設置状況が変更されている可能性が高い。
人が作業を完了した後では、設置物の設置状況が変更されている可能性が高い。例えば、オフィス環境では、設置物の設置状況の変更として、椅子の移動などがある。物品の販売施設では、設置物の設置状況の変更として、物品の設置位置の変更などがある。飲食店では、店員及び客が作業をした後に、設置物の設置状況が変更されている可能性が高い。
そこで、本実施の形態8によれば、作業空間のうち、人が作業を完了した地点を、自律移動型ロボット21に移動させる。このような構成によれば、作業環境が変更された可能性が高い、人が作業を完了した後の環境から画像を撮影することができるので、操作者の遠隔操作が要請される可能性が高い地点の画像を確保することができる。
<その他の変形例>
上述した図1の取得部1と、作業位置算出部2と、撮影可能領域算出部3と、自機視点位置抽出部4と、重畳画像生成部5とを、以下「取得部1等」と記す。取得部1等は、図15に示す処理回路81により実現される。すなわち、処理回路81は、移動体への遠隔操作の要請と、移動体の移動を含む作業を示す作業情報と、移動体から撮影される撮影画像とを取得する取得部1と、要請と、作業情報とに基づいて、要請が取得された際の移動体の作業位置を算出する作業位置算出部2と、移動体の作業空間を示す地図情報と、作業空間内の障害物に関する障害物情報とを含む作業環境情報と、作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部3と、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出する自機視点位置抽出部4と、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部5と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
上述した図1の取得部1と、作業位置算出部2と、撮影可能領域算出部3と、自機視点位置抽出部4と、重畳画像生成部5とを、以下「取得部1等」と記す。取得部1等は、図15に示す処理回路81により実現される。すなわち、処理回路81は、移動体への遠隔操作の要請と、移動体の移動を含む作業を示す作業情報と、移動体から撮影される撮影画像とを取得する取得部1と、要請と、作業情報とに基づいて、要請が取得された際の移動体の作業位置を算出する作業位置算出部2と、移動体の作業空間を示す地図情報と、作業空間内の障害物に関する障害物情報とを含む作業環境情報と、作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部3と、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出する自機視点位置抽出部4と、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部5と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部1等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
処理回路81がプロセッサである場合、取得部1等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図16に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、画像表示装置は、処理回路81により実行されるときに、移動体への遠隔操作の要請と、移動体の移動を含む作業を示す作業情報と、移動体から撮影される撮影画像とを取得するステップと、要請と、作業情報とに基づいて、要請が取得された際の移動体の作業位置を算出するステップと、移動体の作業空間を示す地図情報と、作業空間内の障害物に関する障害物情報とを含む作業環境情報と、作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出するステップと、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出するステップと、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成するステップと、重畳画像を表示するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部1等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、それらのドライブ装置、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、取得部1等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部1等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部1については専用のハードウェアとしての処理回路81でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
また、以上で説明した画像表示装置は、情報処理装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、情報処理装置にインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される画像表示システムにも適用することができる。この場合、以上で説明した画像表示装置の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
なお、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
以下、本開示の諸態様を付記としてまとめて記載する。
(付記1)
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、
前記重畳画像を表示する表示部と
を備える、画像表示装置。
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、
前記重畳画像を表示する表示部と
を備える、画像表示装置。
(付記2)
前記対応位置画像は、前記要請が取得された際に前記移動体が実施していた作業を示す作業画像を含む、付記1に記載の画像表示装置。
前記対応位置画像は、前記要請が取得された際に前記移動体が実施していた作業を示す作業画像を含む、付記1に記載の画像表示装置。
(付記3)
前記作業環境情報は、前記作業空間内の固定物についての3次元空間の位置姿勢情報を含み、
時系列の前記撮影画像と、前記位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を、前記重畳画像生成部で用いられる前記撮影画像として生成する環境画像生成部をさらに備える、付記1または付記2に記載の画像表示装置。
前記作業環境情報は、前記作業空間内の固定物についての3次元空間の位置姿勢情報を含み、
時系列の前記撮影画像と、前記位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を、前記重畳画像生成部で用いられる前記撮影画像として生成する環境画像生成部をさらに備える、付記1または付記2に記載の画像表示装置。
(付記4)
前記作業環境情報の前記障害物情報は、前記作業空間内の固定障害物の位置姿勢情報を含み、
前記作業空間内の物体の位置姿勢情報と、前記作業空間内の前記固定障害物の前記位置姿勢情報とに基づいて、前記固定障害物と区別して前記表示部で表示される移動障害物の位置姿勢情報を算出する移動障害物情報算出部をさらに備える、付記1から付記3のうちのいずれか1項に記載の画像表示装置。
前記作業環境情報の前記障害物情報は、前記作業空間内の固定障害物の位置姿勢情報を含み、
前記作業空間内の物体の位置姿勢情報と、前記作業空間内の前記固定障害物の前記位置姿勢情報とに基づいて、前記固定障害物と区別して前記表示部で表示される移動障害物の位置姿勢情報を算出する移動障害物情報算出部をさらに備える、付記1から付記3のうちのいずれか1項に記載の画像表示装置。
(付記5)
別の移動体が過去に移動した別の移動経路上の位置のうち、前記撮影可能領域に含まれる位置を別の視点位置として抽出する第2視点位置抽出部をさらに備え、
前記重畳画像生成部は、
前記別の移動体から撮影された別の撮影画像と、前記作業位置と、前記別の視点位置とに基づいて、前記別の視点位置で撮影された前記別の撮影画像に前記対応位置画像を重畳することによって、前記表示部で表示される前記重畳画像を生成する、付記1から付記4のうちのいずれか1項に記載の画像表示装置。
別の移動体が過去に移動した別の移動経路上の位置のうち、前記撮影可能領域に含まれる位置を別の視点位置として抽出する第2視点位置抽出部をさらに備え、
前記重畳画像生成部は、
前記別の移動体から撮影された別の撮影画像と、前記作業位置と、前記別の視点位置とに基づいて、前記別の視点位置で撮影された前記別の撮影画像に前記対応位置画像を重畳することによって、前記表示部で表示される前記重畳画像を生成する、付記1から付記4のうちのいずれか1項に記載の画像表示装置。
(付記6)
前記表示部で前記重畳画像と重畳表示され、操作者からの前記遠隔操作に基づいて前記移動体に作業を仮想的に実施させた場合のシミュレーション画像を生成する仮想画像生成部をさらに備える、付記1から付記5のうちのいずれか1項に記載の画像表示装置。
前記表示部で前記重畳画像と重畳表示され、操作者からの前記遠隔操作に基づいて前記移動体に作業を仮想的に実施させた場合のシミュレーション画像を生成する仮想画像生成部をさらに備える、付記1から付記5のうちのいずれか1項に記載の画像表示装置。
(付記7)
前記要請が取得された際に前記移動体が実施している作業が、前記移動体から被作業物体への作業である場合に、前記表示部で表示される前記被作業物体が撮影された画像を取得する被作業物体画像取得部をさらに備える、付記1から付記6のうちのいずれか1項に記載の画像表示装置。
前記要請が取得された際に前記移動体が実施している作業が、前記移動体から被作業物体への作業である場合に、前記表示部で表示される前記被作業物体が撮影された画像を取得する被作業物体画像取得部をさらに備える、付記1から付記6のうちのいずれか1項に記載の画像表示装置。
(付記8)
前記作業空間のうち、前記撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する撮影位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
前記作業空間のうち、前記撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する撮影位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
(付記9)
前記作業空間のうち、人が作業を完了した地点を、撮影位置として取得する作業完了位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
前記作業空間のうち、人が作業を完了した地点を、撮影位置として取得する作業完了位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
(付記10)
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得し、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出し、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出し、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出し、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成し、
前記重畳画像を表示する、画像表示方法。
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得し、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出し、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出し、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出し、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成し、
前記重畳画像を表示する、画像表示方法。
1 取得部、2 作業位置算出部、3 撮影可能領域算出部、4 自機視点位置抽出部、5 重畳画像生成部、6 表示部、7 環境画像生成部、8 移動障害物情報算出部、9 他機視点位置抽出部、10 仮想画像生成部、11 被作業物体画像取得部、12 撮影位置取得部、13 計画作成部、14 作業完了位置取得部、21 自律移動型ロボット、22 作業位置、23 障害物、24 撮影可能領域、25 移動経路。
Claims (10)
- 移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、
前記重畳画像を表示する表示部と
を備える、画像表示装置。 - 請求項1に記載の画像表示装置であって、
前記対応位置画像は、前記要請が取得された際に前記移動体が実施していた作業を示す作業画像を含む、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記作業環境情報は、前記作業空間内の固定物についての3次元空間の位置姿勢情報を含み、
時系列の前記撮影画像と、前記位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を、前記重畳画像生成部で用いられる前記撮影画像として生成する環境画像生成部をさらに備える、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記作業環境情報の前記障害物情報は、前記作業空間内の固定障害物の位置姿勢情報を含み、
前記作業空間内の物体の位置姿勢情報と、前記作業空間内の前記固定障害物の前記位置姿勢情報とに基づいて、前記固定障害物と区別して前記表示部で表示される移動障害物の位置姿勢情報を算出する移動障害物情報算出部をさらに備える、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
別の移動体が過去に移動した別の移動経路上の位置のうち、前記撮影可能領域に含まれる位置を別の視点位置として抽出する第2視点位置抽出部をさらに備え、
前記重畳画像生成部は、
前記別の移動体から撮影された別の撮影画像と、前記作業位置と、前記別の視点位置とに基づいて、前記別の視点位置で撮影された前記別の撮影画像に前記対応位置画像を重畳することによって、前記表示部で表示される前記重畳画像を生成する、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記表示部で前記重畳画像と重畳表示され、操作者からの前記遠隔操作に基づいて前記移動体に作業を仮想的に実施させた場合のシミュレーション画像を生成する仮想画像生成部をさらに備える、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記要請が取得された際に前記移動体が実施している作業が、前記移動体から被作業物体への作業である場合に、前記表示部で表示される前記被作業物体が撮影された画像を取得する被作業物体画像取得部をさらに備える、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記作業空間のうち、前記撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する撮影位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、画像表示装置。 - 請求項1または請求項2に記載の画像表示装置であって、
前記作業空間のうち、人が作業を完了した地点を、撮影位置として取得する作業完了位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、画像表示装置。 - 移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得し、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出し、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出し、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出し、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成し、
前記重畳画像を表示する、画像表示方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022194664A JP7685981B2 (ja) | 2022-12-06 | 2022-12-06 | 画像表示装置及び画像表示方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022194664A JP7685981B2 (ja) | 2022-12-06 | 2022-12-06 | 画像表示装置及び画像表示方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024081209A JP2024081209A (ja) | 2024-06-18 |
| JP7685981B2 true JP7685981B2 (ja) | 2025-05-30 |
Family
ID=91486915
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022194664A Active JP7685981B2 (ja) | 2022-12-06 | 2022-12-06 | 画像表示装置及び画像表示方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7685981B2 (ja) |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017042873A1 (ja) | 2015-09-08 | 2017-03-16 | 株式会社日立製作所 | 遠隔操作システムおよび操作支援システム |
| US20180084242A1 (en) | 2016-09-22 | 2018-03-22 | X Development Llc | Systems and Methods for Generating and Displaying a 3D Model of Items in a Warehouse |
| JP2018186375A (ja) | 2017-04-25 | 2018-11-22 | Kddi株式会社 | 移動体制御システム、プログラム、及び制御方法 |
| JP2019125354A (ja) | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、システム、方法、およびプログラム |
| JP2020161895A (ja) | 2019-03-25 | 2020-10-01 | 国立大学法人 東京大学 | 俯瞰映像提示システム |
| WO2021002116A1 (ja) | 2019-07-03 | 2021-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2022146888A (ja) | 2021-03-22 | 2022-10-05 | 株式会社リコー | 表示システム、通信システム、表示制御方法およびプログラム |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2992883B2 (ja) * | 1998-03-11 | 1999-12-20 | 北海道 | 移動ロボットの環境地図作成方法 |
-
2022
- 2022-12-06 JP JP2022194664A patent/JP7685981B2/ja active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017042873A1 (ja) | 2015-09-08 | 2017-03-16 | 株式会社日立製作所 | 遠隔操作システムおよび操作支援システム |
| US20180084242A1 (en) | 2016-09-22 | 2018-03-22 | X Development Llc | Systems and Methods for Generating and Displaying a 3D Model of Items in a Warehouse |
| JP2018186375A (ja) | 2017-04-25 | 2018-11-22 | Kddi株式会社 | 移動体制御システム、プログラム、及び制御方法 |
| JP2019125354A (ja) | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、システム、方法、およびプログラム |
| JP2020161895A (ja) | 2019-03-25 | 2020-10-01 | 国立大学法人 東京大学 | 俯瞰映像提示システム |
| WO2021002116A1 (ja) | 2019-07-03 | 2021-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2022146888A (ja) | 2021-03-22 | 2022-10-05 | 株式会社リコー | 表示システム、通信システム、表示制御方法およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024081209A (ja) | 2024-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113116224B (zh) | 机器人及其控制方法 | |
| US9796093B2 (en) | Customer service robot and related systems and methods | |
| US10399223B2 (en) | Interfacing with a mobile telepresence robot | |
| EP2553924B1 (en) | Effortless navigation across cameras and cooperative control of cameras | |
| US9858482B2 (en) | Mobile augmented reality for managing enclosed areas | |
| EP3549045A1 (en) | Intelligent service robot and related systems and methods | |
| CN115935458A (zh) | 多种类型的建筑图像之间的属性信息的自动交换和使用 | |
| KR20010024452A (ko) | 카메라 핸드오프 시스템 및 카메라 선택 방법 | |
| KR20180022568A (ko) | 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체 | |
| US20150139505A1 (en) | Method and apparatus for predicting human motion in virtual environment | |
| US10565786B1 (en) | Sensor placement interface | |
| US20180350216A1 (en) | Generating Representations of Interior Space | |
| WO2018087462A1 (fr) | Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles | |
| JP2024063106A (ja) | 表示システム、通信システム、表示制御方法およびプログラム | |
| JP7685981B2 (ja) | 画像表示装置及び画像表示方法 | |
| CN114371632A (zh) | 智能设备控制方法、装置、服务器和存储介质 | |
| JP4722537B2 (ja) | 監視装置 | |
| Faisal et al. | Multi-sensors multi-baseline mapping system for mobile robot using stereovision camera and laser-range device | |
| RU2679200C1 (ru) | Способ и система отображения данных с видеокамеры | |
| CN115176286A (zh) | 图像处理装置、图像处理方法和程序 | |
| JP2018036847A (ja) | 情報処理システム | |
| JP2021190729A (ja) | 画像特定システムおよび画像特定方法 | |
| KR102772343B1 (ko) | 객체에 대한 자세 추정 모델의 스켈레톤 감지를 이용한 지능형 영상관제 시스템 | |
| KR102819782B1 (ko) | 로봇 및 로봇의 추종 방법 | |
| WO2024232247A1 (ja) | 情報処理方法および情報処理装置、並びにプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241028 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250422 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250520 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7685981 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |