JP2011152593A - Robot operation device - Google Patents
Robot operation device Download PDFInfo
- Publication number
- JP2011152593A JP2011152593A JP2010014035A JP2010014035A JP2011152593A JP 2011152593 A JP2011152593 A JP 2011152593A JP 2010014035 A JP2010014035 A JP 2010014035A JP 2010014035 A JP2010014035 A JP 2010014035A JP 2011152593 A JP2011152593 A JP 2011152593A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- video
- image
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims description 52
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000000007 visual effect Effects 0.000 claims description 19
- 241000282414 Homo sapiens Species 0.000 claims description 17
- 230000007423 decrease Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 abstract description 26
- 238000004891 communication Methods 0.000 abstract description 20
- 210000003128 head Anatomy 0.000 description 67
- 230000005540 biological transmission Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000004886 head movement Effects 0.000 description 5
- 230000008450 motivation Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000005043 peripheral vision Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、遠隔コミュニケーションが行われるシステムにおいて使用されるロボットを操作するロボット操作装置に関する。 The present invention relates to a robot operation apparatus that operates a robot used in a system in which remote communication is performed.
遠隔地にいる人との間でコミュニケーションを行うためにテレビジョン会議システム(テレビ会議システム)が広く利用されている。テレビ会議システムでは、会議場に設置されたカメラとマイクロフォンで取得された映像と音声とを伝送することによってコミュニケーションが行われる。 Video conferencing systems (video conferencing systems) are widely used to communicate with people at remote locations. In the video conference system, communication is performed by transmitting video and audio acquired by a camera and a microphone installed in a conference hall.
しかし、一般的なテレビ会議システムでは、ユーザ(ユーザAとする。)の視線がどこに向かっているかなどのユーザAの身体性の情報が遠隔地にいるユーザ(ユーザBとする。)に伝達されず、コミュニケーションに必要な情報が欠落するという問題がある。例えば、ユーザAが、遠隔地の会議場に存在する物の所定部位を視線方向によって指し示すことはできない。 However, in a general video conference system, information on the physicality of the user A, such as where the user's (user A) is looking, is transmitted to the user (user B) in a remote place. However, there is a problem that information necessary for communication is missing. For example, the user A cannot point to a predetermined part of an object existing in a remote conference hall by the line-of-sight direction.
そこで、身体性を有したロボットを用いてコミュニケーションを行う方式が提案されている。例えば、特許文献1には、会議参加者がいる会議場にロボットを置き、遠隔地にいるユーザAがそのロボットを操作してコミュニケーションを行うことが記載されている。ロボットには、マイクロフォン、カメラおよびスピーカが設置されている。遠隔地にいるユーザAは自分の声をロボットに伝送する。ロボットは、ユーザAの声を再生する。また、ユーザAが操作する端末は、ロボットに設けられているマイクロフォンおよびセンサが取得した音声と画像とを伝送路を介して受信する。そして、ユーザAは、端末で音声と画像とを確認しつつ、ロボットの動きを操作する。 Therefore, a method of performing communication using a robot having physicality has been proposed. For example, Patent Document 1 describes that a robot is placed in a conference hall where conference participants are present, and a user A who is in a remote place operates the robot to perform communication. The robot is provided with a microphone, a camera, and a speaker. User A who is at a remote location transmits his voice to the robot. The robot reproduces the voice of user A. Further, the terminal operated by the user A receives the voice and the image acquired by the microphone and the sensor provided in the robot via the transmission path. Then, the user A operates the movement of the robot while confirming the sound and the image on the terminal.
ロボットを通じて人と人とが遠隔コミュニケーションを行うシステムにおいて、ユーザAがロボットを操作する方法として、特許文献1には、ロボットが向く方向を指示するための上下左右の4方向の入力を行うことが可能なボタンを用意し、ロボットが取得した映像を操作者が見つつそれらのボタンを用いてロボットの向く方向を指示する方法が開示されている。また、一つのディスプレイ上に表示されているロボットが取得した映像中の場所をユーザAがマウス等で指定すると、ロボットが、指定された場所に向くという方法がある。 In a system in which a person communicates with a person through a robot, as a method for the user A to operate the robot, Japanese Patent Application Laid-Open Publication No. 2004-228561 may perform input in four directions, up, down, left, and right for instructing the direction in which the robot faces. A method is disclosed in which possible buttons are prepared, and an operator uses the buttons to indicate the direction in which the robot faces while viewing an image acquired by the robot. In addition, there is a method in which, when the user A designates a location in an image acquired by a robot displayed on one display with a mouse or the like, the robot faces the designated location.
さらに、非特許文献1には、ユーザの目前に実空間での見え方を再現するために、ロボットが取得した映像を多面(例えば、3面)のディスレプレイに表示し、操作者(ユーザA)の頭部にモーションセンサを設置する方式が記載されている。その方式では、ディスプレイに写っている対象物を見るためにユーザが頭部を動かすと、そのときの操作者の動きが検出されてロボットに伝送される。その動きに従ってロボットの頭部を動かすことによって、操作者の動きがロボットにおいて再現される。 Further, in Non-Patent Document 1, in order to reproduce the appearance in real space in front of the user, the image acquired by the robot is displayed on a multi-display (for example, three displays), and the operator (user A method of installing a motion sensor on the head of A) is described. In this method, when the user moves his / her head to see an object shown on the display, the movement of the operator at that time is detected and transmitted to the robot. By moving the head of the robot according to the movement, the movement of the operator is reproduced in the robot.
特許文献1に示された方法等では、ユーザAは自分が見たい位置を映像上で同定し、その位置に向かってボタン操作や映像上でのポイントなどの操作を行うことによって、そちらにロボットを向かせることとなる。このとき、カメラの視野が狭いと、視野外の対象物を探すためにロボットの方位(頭部の向き)を頻繁に動かすことになる。その結果、ロボットの視線は頻繁に変化する。ロボットは、頭部の動きや向きという身体動作を伝達する目的で導入されているので、ロボットの視線の変化は、本来、ロボットが存在する場所にいるユーザに対して、何らかのユーザの意図(例えば、興味対象を指し示すとか、特定の人に対して発話権を譲るなどの意図)を表現するものである。しかし、視野外の対象物を探すためのロボットの煩雑な動作は、ユーザAが伝達したい意図とは異なることがある。 In the method disclosed in Patent Document 1, the user A identifies a position he / she wants to see on the video, and performs a button operation or an operation such as a point on the video toward the position, thereby moving the robot there. Will be turned. At this time, if the field of view of the camera is narrow, the direction of the robot (head direction) is frequently moved in order to search for an object outside the field of view. As a result, the robot's line of sight changes frequently. Since robots are introduced for the purpose of transmitting body movements such as the movement and orientation of the head, changes in the robot's line of sight are not intended for any user's intention (e.g. Express intentions of interest or intentions to give the right to speak to a specific person). However, the complicated operation of the robot for searching for an object outside the field of view may be different from the intention that the user A wants to transmit.
一方、カメラの視野が広いと操作者(ユーザA)には広い範囲の映像が視認されてしまうので、操作者は、映像を獲得する目的ではカメラを動かさなくなる。すなわち、操作者はロボットの頭部を動かさなくなってしまう。一方のユーザがある動作を開始する前に示す頭部の回転等の身体的な行為によって、他方のユーザが、一方のユーザが開始する動作を予期することができる。そのような予期は、ユーザ間の円滑なコミュニケーションを実現するのに役立つ。しかし、カメラの視野が広い場合には、他方のユーザ(ユーザB)が操作者(ユーザA)の動作を予期する機会が減り、頭部の向きによって操作者の意図を伝えることが難しくなってしまう。 On the other hand, when the field of view of the camera is wide, the operator (user A) sees a wide range of images, so the operator does not move the camera for the purpose of acquiring the images. That is, the operator stops moving the robot's head. The physical action such as the rotation of the head shown before one user starts a certain operation allows the other user to expect the operation started by one user. Such anticipation helps to achieve smooth communication between users. However, when the field of view of the camera is wide, the opportunity for the other user (user B) to expect the operation of the operator (user A) decreases, and it becomes difficult to convey the operator's intention depending on the orientation of the head. End up.
上記の操作者(ユーザA)の操作の動向を、人間の視覚特性の面から説明する。人間の目によって得られる映像は、視野の中心部の解像度が高く、周辺部の解像度が低いという特性を有する。人間は中心部の高解像度な領域で物体を詳細に見るとともに、周辺視野で広い角度にわたって他の人の存在や動きがある物体などをモニタしている。カメラの視野を限定しすぎると周辺視野でのモニタができなくなり、中心視を用いて周囲を見ようとするため、頭部動作が自然でなくなる。また、視野が広くて解像度が高い状態では、周辺視で低解像度で見えていたものを高解像度でみようとして視線を向けるという動作を行わなくなることから、やはり頭部動作が自然でなくなる。 The operation trend of the operator (user A) will be described from the viewpoint of human visual characteristics. An image obtained by the human eye has a characteristic that the resolution of the central part of the visual field is high and the resolution of the peripheral part is low. Humans look at objects in detail in a high-resolution area in the center, and monitor other people's presence and movement over a wide angle in the peripheral vision. If the camera field of view is too limited, monitoring with the peripheral field of view becomes impossible, and the center movement is used to see the surroundings, so the head movement becomes unnatural. Also, in a state where the field of view is wide and the resolution is high, the action of turning the line of sight in order to look at what was seen at low resolution in peripheral vision is not performed, so the head movement is also not natural.
この問題を解決するために、非特許文献1に示された方法では、ロボットに広角のカメラが搭載され、操作者の前に、3台のディスプレイが設置されている。しかし、非特許文献1に示された方法では、操作者の頭部動作がそのままロボットに伝達されるので、没入型ディスプレイなどの大掛かりな設備が必要であり、かつ、モーションセンサをユーザに設置するなどユーザへ負担を掛けるという問題がある。すなわち、簡易な設備でユーザに負担を掛けることなくロボットが自然な身体動作を行うようにすることができない。 In order to solve this problem, in the method disclosed in Non-Patent Document 1, a wide-angle camera is mounted on the robot, and three displays are installed in front of the operator. However, according to the method disclosed in Non-Patent Document 1, since the operator's head movement is transmitted to the robot as it is, a large-scale facility such as an immersive display is required, and a motion sensor is installed in the user. There is a problem of placing a burden on the user. That is, the robot cannot perform natural body movements without burdening the user with simple equipment.
そこで、本発明は、遠隔コミュニケーションが行われるシステムにおいて、簡易な設備でユーザに負担を掛けることなくロボットが自然な身体動作を行うようにすることができるロボット操作装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a robot operating device that enables a robot to perform natural body movements without burdening a user with simple equipment in a system in which remote communication is performed. .
本発明によるロボット操作装置は、ロボットがどちらを向いているのかを表現する部位を有するロボットを遠隔操作するロボット操作装置であって、ロボットが存在する空間を撮像した映像を入力する映像入力部と、映像入力部が入力した映像を、上記の部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工する映像加工部と、映像加工部が加工した映像を表示器に表示する映像表示部と、表示器に表示された映像におけるユーザが指定した位置を向くように上記の部位を移動させる命令を発行する映像位置指定部とを備えたことを特徴とする。 A robot operating device according to the present invention is a robot operating device that remotely controls a robot having a part that expresses which direction the robot is facing, a video input unit that inputs an image of a space in which the robot exists, and The video processing unit that processes the video input by the video input unit so that the resolution decreases as the distance from the image portion corresponding to the orientation of the part is increased, and the video that displays the video processed by the video processing unit on the display It is characterized by comprising a display unit and a video position specifying unit for issuing a command to move the part so as to face the position specified by the user in the video displayed on the display.
本発明によるロボットシステムは、さらに、ロボットが存在する空間の映像を取得する撮像部と、映像位置指定部が発行した命令にもとづいて上記の部位を駆動する駆動部とを備えたことを特徴とする。 The robot system according to the present invention further includes an imaging unit that acquires an image of a space in which the robot exists, and a drive unit that drives the above part based on a command issued by the image position specifying unit. To do.
本発明によるロボット操作方法は、ロボットがどちらを向いているのかを表現する部位を有するロボットを遠隔操作するロボット操作方法であって、ロボットが存在する空間を撮像した映像を入力し、入力した映像を、上記の部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工し、加工した映像を表示器に表示し、表示器に表示された映像におけるユーザが指定した位置を向くように上記の部位を移動させる命令を発行することを特徴とする。 The robot operation method according to the present invention is a robot operation method for remotely operating a robot having a part that expresses which direction the robot is facing, and inputs an image obtained by capturing an image of a space where the robot exists. Is processed so that the resolution decreases as it is farther from the image portion corresponding to the orientation of the above part, and the processed image is displayed on the display unit so that it faces the position specified by the user in the image displayed on the display unit A command for moving the above-mentioned part is issued to
本発明によるロボット操作プログラムは、ロボットがどちらを向いているのかを表現する部位を有するロボットを遠隔操作するロボット操作装置に搭載されるコンピュータに、ロボットが存在する空間を撮像した映像を入力する処理と、入力した映像を、上記の部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工する処理と、加工した映像を表示器に表示する処理と、表示器に表示された映像におけるユーザが指定した位置を向くように上記の部位を移動させる命令を発行する処理とを実行させることを特徴とする。 The robot operation program according to the present invention is a process for inputting an image of a space in which a robot exists to a computer mounted on a robot operation device that remotely controls a robot having a part that expresses which direction the robot is facing. Processing the input video so that the resolution decreases as the distance from the image portion corresponding to the orientation of the above part, processing for displaying the processed video on the display, and video displayed on the display And a process of issuing a command to move the part so as to face the position designated by the user.
本発明によれば、広い視野を確保しつつ、ロボットの頭部等の所定の部位を動作させる動機を操作者に与えることによって、遠隔コミュニケーションにおいて、操作者が興味の対象を伝達したいという意図を正確に伝達することができる。 According to the present invention, by providing the operator with a motivation to operate a predetermined part such as the robot head while securing a wide field of view, the operator intends to transmit an object of interest in remote communication. Can communicate accurately.
以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
実施形態1.
図1は、本発明によるロボット操作装置の第1の実施形態を含む遠隔コミュニケーションシステムの構成例を示すブロック図である。
Embodiment 1. FIG.
FIG. 1 is a block diagram showing a configuration example of a remote communication system including a first embodiment of a robot operating device according to the present invention.
図1に示す遠隔コミュニケーションシステムには、ロボット100と、ロボット操作装置としての操作端末200とが存在する。また、ロボット100の周囲の映像を取得する撮像部111と、撮像部111で取得された映像のデータを送信する映像伝送部112とが設けられている。ロボット100と操作端末200とは、伝送路300を介して通信可能である。一例として、遠隔コミュニケーションシステムがテレビ会議システムである場合には、操作端末200は一方の会議場に設けられ、ロボット100、撮像部111および映像伝送部112は、他方の会議場に設置される。 The remote communication system shown in FIG. 1 includes a robot 100 and an operation terminal 200 as a robot operation device. In addition, an imaging unit 111 that acquires a video around the robot 100 and a video transmission unit 112 that transmits video data acquired by the imaging unit 111 are provided. The robot 100 and the operation terminal 200 can communicate with each other via the transmission path 300. As an example, when the remote communication system is a video conference system, the operation terminal 200 is provided in one conference hall, and the robot 100, the imaging unit 111, and the video transmission unit 112 are installed in the other conference hall.
撮像部111は、具体的にはカメラ(CCDやCMOSセンサとレンズ系とを含む。)で構成される。映像伝送部112は、撮像部111で撮像された映像を伝送するための信号に変換する部分であり、画像の符号化を行う機能と伝送路300にデータを送出する機能を有する。 Specifically, the imaging unit 111 includes a camera (including a CCD, a CMOS sensor, and a lens system). The video transmission unit 112 is a part that converts the video imaged by the imaging unit 111 into a signal for transmission, and has a function of encoding an image and a function of sending data to the transmission path 300.
ロボット100は、少なくとも頭部101と、頭部を駆動する頭部駆動部103とを有する。頭部101には、視線方向を向いたカメラ102が設けられている。頭部101は、ロボット100がどちらを向いているのかを表現する役割を果たす。 The robot 100 includes at least a head 101 and a head driving unit 103 that drives the head. The head 101 is provided with a camera 102 facing the line of sight. The head 101 serves to express which direction the robot 100 is facing.
映像伝送部112は、ロボット100の頭部101に設けられているカメラ102で撮像された画像も伝送する。 The video transmission unit 112 also transmits an image captured by the camera 102 provided on the head 101 of the robot 100.
操作端末200において、映像受信部201は、映像伝像部112で符号化され伝送路300に送信されたデータを受信し映像に変換する。映像加工部202は、映像受信部201で構成された映像すなわち撮像部111で撮像された映像を、カメラ102が設置されているロボット100の頭部101の視線方向に対応する映像の部分から遠くなるほど解像度が下がるように加工する。 In the operation terminal 200, the video reception unit 201 receives the data encoded by the video transmission unit 112 and transmitted to the transmission path 300, and converts it into video. The video processing unit 202 displays the video configured by the video receiving unit 201, that is, the video captured by the imaging unit 111, far from the part of the video corresponding to the line-of-sight direction of the head 101 of the robot 100 in which the camera 102 is installed. It is processed so that the resolution decreases.
映像表示部203は、映像加工部202で生成された映像を表示器(図示せず)に表示する制御を行う。映像位置指定部204は、ユーザが指定した位置を向くようにロボット100の頭部101を移動させる命令を発行する。 The video display unit 203 performs control to display the video generated by the video processing unit 202 on a display (not shown). The video position designation unit 204 issues a command to move the head 101 of the robot 100 so as to face the position designated by the user.
なお、操作端末200において、映像受信部201における映像を入力する処理、映像加工部202の処理、映像表示部203の処理、および映像位置指定部204における頭部101を移動させる命令を発行する処理は、一例として、プログラムに従って処理を実行するCPU(Central Processing Unit )で実現される。 In operation terminal 200, processing for inputting video in video receiving unit 201, processing in video processing unit 202, processing in video display unit 203, and processing for issuing a command to move head 101 in video position designating unit 204 As an example, is realized by a CPU (Central Processing Unit) that executes processing according to a program.
次に、遠隔コミュニケーションシステムにおいて実行される処理を説明する。 Next, processing executed in the remote communication system will be described.
例えば、図2に示すようにロボット100と会議の参加者401〜404(参加者1〜参加者4)が存在しているとする。ロボット100に付されている矢印がロボット100の頭部志向を表わすとする。図2に示す例では、撮像部111のカメラ視野500には4名の人物が入っているが、ロボット100は参加者2に対して頭部志向を向けている状況である。この場合、操作端末200は、参加者2の様子(表情、仕草、顔色など)の詳細を高解像度の画像で操作者に伝えつつ、その他の参加者の存在や動きなどを低解像度の画像で操作者(ユーザA)に伝える。 For example, it is assumed that the robot 100 and conference participants 401 to 404 (participants 1 to 4) exist as shown in FIG. It is assumed that an arrow attached to the robot 100 indicates the head orientation of the robot 100. In the example illustrated in FIG. 2, there are four persons in the camera field of view 500 of the imaging unit 111, but the robot 100 is headed toward the participant 2. In this case, the operation terminal 200 conveys the details of the state of the participant 2 (expression, gesture, complexion, etc.) to the operator with a high-resolution image, and the presence and movement of other participants with a low-resolution image. Tell the operator (user A).
なお、図3(A),(B)または図3(C),(D)に示すように、撮像部111のカメラ光軸と頭部志向が一致している場合には、画像中心が頭部志向の方向になる。図3(A),(C)は、ロボット100の頭部101を示す模式的な断面図に相当し、図3(B),(D)は、ロボット100の頭部101を示す模式的な斜視図に相当する。 As shown in FIGS. 3A and 3B or FIGS. 3C and 3D, when the camera optical axis of the imaging unit 111 is coincident with the head orientation, the center of the image is the head. Become a department-oriented direction. 3A and 3C correspond to schematic cross-sectional views showing the head 101 of the robot 100, and FIGS. 3B and 3D are schematic views showing the head 101 of the robot 100. It corresponds to a perspective view.
また、操作端末200では、ロボット100の頭部志向の方向は、カメラ102で撮像された画像によって判断される。 Further, in the operation terminal 200, the head-oriented direction of the robot 100 is determined by an image captured by the camera 102.
また、撮像部111のカメラ光軸がロボット100の頭部志向と一致していない場合には、映像加工部202は、撮像部111が設置されている位置を基準とする頭部101の相対位置にもとづいて、カメラ102で撮像された頭部志向の方向(現在頭部が志向している方向)の画像が、撮像部111で取得された映像中のどの位置になるのかを算出する。そして、算出された位置を、撮像部111で取得された映像におけるロボット100の頭部101の視線方向の位置(頭部志向の方向)とする。 When the camera optical axis of the imaging unit 111 does not coincide with the head orientation of the robot 100, the video processing unit 202 determines the relative position of the head 101 with respect to the position where the imaging unit 111 is installed. Based on this, it is calculated which position in the video acquired by the imaging unit 111 the head-oriented image (the direction in which the head is currently oriented) captured by the camera 102 is. Then, the calculated position is set as the position in the line-of-sight direction (head-oriented direction) of the head 101 of the robot 100 in the image acquired by the imaging unit 111.
映像加工部202は、映像を加工する際に、例えば、図4に示すように、ロボット100が現在志向している方向に対応するあらかじめ決められている範囲の画像部分はそのままの解像度にし、そこから離れるほど解像度が低下した画像にする。解像度の低下の例として、図5に例示するようにぼける(ガウシアンフィルタなどで画像をぼかす)、徐々に暗くする、徐々に色をなくす(例えば、撮像された映像がカラー映像である場合、その色をYUV色空間に変換しUV成分を小さくしていくなどの処理を行っいて色味成分を段階的になくしていくなど)、徐々に小さくするなどの方式を用いることができる。 When the video processing unit 202 processes the video, for example, as shown in FIG. 4, the image portion in a predetermined range corresponding to the direction in which the robot 100 is currently oriented is set to the same resolution. The image is reduced in resolution with increasing distance from. As an example of a decrease in resolution, as illustrated in FIG. 5, the image is blurred (blurred image with a Gaussian filter or the like), gradually darkened, and gradually faded in color (for example, when the captured image is a color image, It is possible to use a method of gradually reducing the color component by performing processing such as converting the color to the YUV color space and reducing the UV component, etc.).
映像表示部203は、映像加工部202で生成された映像を表示器に表示する。具体的には、例えばモニタに映像を表示する。映像加工部202で生成された映像が、パーソナルコンピュータの画面の一部に表示されるような表示態様を用いてもよい。 The video display unit 203 displays the video generated by the video processing unit 202 on a display. Specifically, for example, an image is displayed on a monitor. A display form in which the video generated by the video processing unit 202 is displayed on a part of the screen of the personal computer may be used.
映像位置指定部204は、表示された映像の任意の位置をユーザAが指定すると、ユーザAが指定した位置を特定する機能を有する。例えば、ユーザAは、表示器に表示された映像に対してマウスやなどのポインティングデバイスで位置を指定する。すなわち、マウスカーソルを移動してクリックする。その場合には、ポインティングデバイスと操作端末100に搭載されているCPUとが映像位置指定部204に相当する。また、ユーザAは、タッチスクリーン上に表示された画像に対して身体(指等)やタッチデバイスで位置を指定するようにしてもよい。その場合には、タッチスクリーン(例えば、タッチパネル)と操作端末100に搭載されているCPUとが映像位置指定部204に相当する。 The video position designation unit 204 has a function of specifying the position designated by the user A when the user A designates an arbitrary position of the displayed video. For example, the user A designates the position of the video displayed on the display device with a pointing device such as a mouse. That is, the mouse cursor is moved and clicked. In that case, the pointing device and the CPU mounted on the operation terminal 100 correspond to the video position designation unit 204. In addition, the user A may specify a position with a body (such as a finger) or a touch device with respect to an image displayed on the touch screen. In that case, a touch screen (for example, a touch panel) and a CPU mounted on the operation terminal 100 correspond to the video position designation unit 204.
映像位置指定部204は、特定した位置を示す情報を、伝送路300を介してロボット100に送信する。なお、特定した位置を示す情報は、例えば、ロボット100が現在志向している方向を基点とする相対的な位置を示す情報である。 The video position specifying unit 204 transmits information indicating the specified position to the robot 100 via the transmission path 300. Note that the information indicating the specified position is information indicating a relative position based on the direction in which the robot 100 is currently oriented, for example.
ロボット100において、頭部駆動部103は、映像位置指定部204からの位置を示す情報を受信し、受信した情報にもとづいて頭部101を駆動する。すなわち、映像位置指定部204で指定された映像上の位置の方位に頭部101を向けるように頭部101を駆動する。つまり、指定された方位にあるものがカメラ111で撮像される画像の中心に写るように頭部101を駆動する。 In the robot 100, the head driving unit 103 receives information indicating the position from the video position specifying unit 204, and drives the head 101 based on the received information. That is, the head 101 is driven so that the head 101 is directed to the orientation of the position on the image specified by the image position specifying unit 204. That is, the head 101 is driven so that an image in the designated direction is captured at the center of the image captured by the camera 111.
具体的には、映像におけるそれぞれの位置に関してその位置が指し示す方位にあるものが画像の中心に写るようにするにはカメラ102をどのように移動しなければならないかをあらかじめ計算し、ロボット100に内蔵されている記憶手段に格納しておく。そして、記憶手段に格納されている計算結果を利用してどのように頭部101を駆動するかを決定する方式を利用することができる。また、カメラ102の光学パラメータ(焦点距離、センサのサイズ、画角、画素数など)から適当なレンズモデルを用いて方位を算出し、どのように頭部101を駆動するかを決定する方式を用いてもよい。 Specifically, for each position in the video, in advance, the camera 102 must be moved in order to make the image in the direction indicated by that position appear in the center of the image, and the robot 100 Store in the built-in storage means. A method of determining how to drive the head 101 using the calculation result stored in the storage means can be used. Also, a method for calculating how to drive the head 101 by calculating an azimuth using an appropriate lens model from the optical parameters of the camera 102 (focal length, sensor size, angle of view, number of pixels, etc.). It may be used.
以上のようにして、操作者(ユーザA)は、人間の周辺視に相当する部分に存在する物体の存在や動きのみを低い解像度でモニタしつつ、注意を払っている部分を高解像度で見ることができる。従って、広い視野を確保しつつ、周辺視に相当する部分を詳しく見たいときはそちらに首を振る動作を行いたいという動機を操作者に与えることができる。その結果、ロボット100を通じた遠隔コミュニケーションにおいて、操作者の意図を正確に伝達することができる。 As described above, the operator (user A) looks at a high-resolution portion while paying attention while monitoring only the presence or movement of an object existing in a portion corresponding to human peripheral vision at a low resolution. be able to. Therefore, it is possible to give the operator a motivation to perform a motion of shaking his / her head when he wants to see in detail the portion corresponding to the peripheral vision while securing a wide field of view. As a result, it is possible to accurately transmit the operator's intention in remote communication through the robot 100.
なお、頭部101は、ロボット100がどちらを向いているのかを周囲の人に表現するものである。よって、ロボット100がどちらを向いているのかを表現する部位は、生物の頭を模した頭部でもよいが、眼球の動きが外部からも分かるようにデザインされている場合は、眼球の動きで表現するものであってもよい。また、生物の頭とは別の棒、矢印、指を模したものなどであってもよい。 Note that the head 101 expresses to the surrounding people which direction the robot 100 is facing. Therefore, the part representing the direction in which the robot 100 is facing may be a head imitating the head of a living thing, but if the movement of the eyeball is designed to be seen from the outside, the movement of the eyeball It may be expressed. Moreover, the thing different from the head of a living thing, the arrow, and the thing imitating a finger may be used.
また、第1の実施形態では、ロボット100の頭部101に設置されているカメラ102と、ロボット100の周囲の映像を取得する撮像部111とが別個に設けられているが、それらを、1つのカメラ等の撮像部(以下、撮像手段という。)で実現してもよい。 In the first embodiment, the camera 102 installed on the head 101 of the robot 100 and the imaging unit 111 that acquires an image around the robot 100 are separately provided. You may implement | achieve with imaging parts (henceforth an imaging means), such as one camera.
カメラ102と撮像部111とを1つの撮像手段で実現する場合に、一例として、撮像手段が、ロボット100の頭部101に搭載される。その場合、例えば、撮像手段のカメラ光軸と頭部志向を一致させる(図3参照)。そして、上記の第1の実施形態において、カメラ102で撮像された画像を頭部101に搭載された撮像手段で撮像された画像と読み替え、撮像部111で撮像された映像を当該撮像手段で撮像された映像と読み替えることによって、頭部101に1つの撮像手段が搭載された場合の処理を説明することができる。 When the camera 102 and the imaging unit 111 are realized by a single imaging unit, the imaging unit is mounted on the head 101 of the robot 100 as an example. In that case, for example, the camera optical axis of the imaging means and the head orientation are matched (see FIG. 3). In the first embodiment, the image captured by the camera 102 is replaced with the image captured by the imaging unit mounted on the head 101, and the video captured by the imaging unit 111 is captured by the imaging unit. By replacing it with the recorded video, the processing in the case where one imaging means is mounted on the head 101 can be described.
また、1つの撮像手段の設置位置は、ロボット100の頭部101に限られず、他の場所であってもよい。一例として、撮像手段をロボット100の胴体部に設置することができる。撮像手段の設置位置がロボット100の頭部101ではない場合には、撮像手段のカメラ光軸がロボット100の頭部志向と一致しない状況が生じうる。その場合、映像加工部202は、撮像手段が設置されている位置を基準とする頭部101の相対位置にもとづいて、現在頭部が志向している方向の画像が、撮像手段で取得された映像中のどの位置になるのかを算出する。その他の処理は、上記の第1の実施形態において、カメラ102で撮像された画像を撮像手段で撮像された画像と読み替え、撮像部111で撮像された映像を当該撮像手段で撮像された映像と読み替えることによって、1つの撮像手段のみが設置されている場合の処理を説明することができる。 Further, the installation position of one imaging unit is not limited to the head 101 of the robot 100, and may be another location. As an example, the imaging unit can be installed on the body of the robot 100. When the installation position of the image pickup means is not the head 101 of the robot 100, a situation may occur in which the camera optical axis of the image pickup means does not coincide with the head orientation of the robot 100. In that case, the image processing unit 202 has acquired an image in the direction in which the head is currently oriented based on the relative position of the head 101 with respect to the position where the imaging unit is installed. Calculate the position in the video. In other processes, in the first embodiment, the image captured by the camera 102 is replaced with the image captured by the image capturing unit, and the image captured by the image capturing unit 111 is replaced with the image captured by the image capturing unit. By re-reading, it is possible to explain the processing when only one imaging means is installed.
実施形態2.
次に、本発明の第2の実施形態を説明する。ロボット操作装置の第2の実施形態を含む遠隔コミュニケーションシステムの構成は、図1に示された構成と同じである。ただし、映像加工部202の動作は、第1の実施形態の場合とは異なる。
Embodiment 2. FIG.
Next, a second embodiment of the present invention will be described. The configuration of the remote communication system including the second embodiment of the robot operating device is the same as the configuration shown in FIG. However, the operation of the image processing unit 202 is different from that in the first embodiment.
第2の実施形態は、映像加工部202において一度中心視野を向けた領域の解像度が、その後に視野を外しても徐々に下がるようにすることを特徴とする。 The second embodiment is characterized in that the resolution of the region once directed to the central visual field in the video processing unit 202 gradually decreases even after the visual field is removed.
具体的には、操作者の指示によって中心視野を向けた画像の座標の集合を、
{(a(i),b(i))}(i=1,・・・,N)
とする。(a(i),b(i))は時刻t(i)に操作者によって行われた操作によって中心視野が向けられた画像の座標である。
Specifically, a set of image coordinates with a central visual field directed by an operator's instruction,
{(A (i), b (i))} (i = 1,..., N)
And (A (i), b (i)) are coordinates of an image whose central visual field is directed by an operation performed by the operator at time t (i).
現在の時刻をTとすると、例えば、T−t(i)に対して単調に増加するような分散を持つガウシアンをカーネルとする空間フィルタを{(a(i),b(i))}(i=1,・・・,N)をそれぞれ中心とする領域に施すことによって、徐々に解像度が下がるようにすることができる。また、他の空間フィルタを施す方法や、モザイク化を行うときの一つ一つのブロックの大きさを時間経過が少ないものほど小さくする方法で実現することもできる。 Assuming that the current time is T, for example, a spatial filter using Gaussian with a variance that monotonically increases with respect to T−t (i) as a kernel {(a (i), b (i))} ( By applying i = 1,..., N) to the respective regions, the resolution can be gradually lowered. It can also be realized by a method of applying another spatial filter, or a method of reducing the size of each block when performing mosaic processing as the time lapse is smaller.
本実施形態の効果を説明する。映像中心のみが高解像度の領域であって、ユーザAがよく見る領域が映像において複数個離れた領域に存在する場合、それらの領域に対して高い頻度で頭部101を向けて観測することが必要な場面を考える。そのような場合、ロボット100の操作の手間があるために、ユーザAが一度高解像度で確認した内容を忘れてしまう可能性が高くなる。その結果、人間の自然な頭部動作に比べて高い頻度でロボットを動作させる可能性が高くなる。そのような状況では、ロボット100の頭部101の動作が人間の意図を正確に反映したものにならないという問題が生じる。 The effect of this embodiment will be described. When only the center of the video is a high-resolution area and there are a plurality of areas that the user A often sees in a plurality of areas away from the video, the head 101 can be observed with high frequency with respect to these areas. Think about the necessary scene. In such a case, since the operation of the robot 100 is troublesome, there is a high possibility that the content that the user A has once confirmed at a high resolution will be forgotten. As a result, there is a high possibility that the robot is operated at a higher frequency than the natural human head movement. In such a situation, there arises a problem that the movement of the head 101 of the robot 100 does not accurately reflect human intentions.
しかし、本実施形態のように、一度視野を向けた領域の解像度を所定期間高いままにすることによって、操作者は以前視野を向けた領域を、ロボット100の頭部101を向けずに確認することができる。さらに、所定期間が経過すると解像度が低くなるので、再度確認したい場合は頭部101を向ける動機が生じ、そのような操作を実際に行うことによって、ロボット100に人間の頭部動作をさせることができる。 However, as in this embodiment, by leaving the resolution of the region once directed to the field of view high for a predetermined period, the operator confirms the region to which the field of view was previously directed without pointing the head 101 of the robot 100. be able to. Furthermore, since the resolution is lowered after a predetermined period of time, if the user wants to check again, a motivation to turn the head 101 is generated, and by actually performing such an operation, the robot 100 can make a human head move. it can.
さらに、頭部駆動部103が、操作者からの指示である方位を向いた後、所定時間経過すると自動的に頭部101の向きをずらすようにしてもよい。その場合、頭部駆動部103が自動的に視線方向をずらした後も、映像加工部202は、操作者によって指示された方位の画像の解像度を所定の時間だけ下げないようにする。そのようにして、広い視野を確保しつつ、ロボット100の頭部101を動作させる動機が操作者に与えられるので、対話において、操作者が興味の対象を伝達したいという意図を正確に伝達することができる。 Furthermore, the head driving unit 103 may automatically shift the direction of the head 101 after a predetermined time has elapsed after facing the direction that is an instruction from the operator. In that case, even after the head driving unit 103 automatically shifts the line-of-sight direction, the video processing unit 202 does not lower the resolution of the image in the direction instructed by the operator for a predetermined time. In this way, the operator is given a motivation to operate the head 101 of the robot 100 while ensuring a wide field of view, so that the intention that the operator wants to transmit the object of interest is accurately transmitted in the dialogue. Can do.
実施形態3.
次に、本発明の第3の実施形態を説明する。ロボット操作装置の第3の実施形態を含む遠隔コミュニケーションシステムの構成は、図1に示された構成と同じである。ただし、映像加工部202の動作は、第1の実施形態の場合とは異なる。
Embodiment 3. FIG.
Next, a third embodiment of the present invention will be described. The configuration of the remote communication system including the third embodiment of the robot operating device is the same as the configuration shown in FIG. However, the operation of the image processing unit 202 is different from that in the first embodiment.
第3の実施形態は、映像加工部202が、決められた物体を検出し、映像中のその物体の部分をロボット100の頭部101の視線方向に対応する部分から遠くなるほどぼかすことを特徴とする。 The third embodiment is characterized in that the image processing unit 202 detects a predetermined object and blurs the portion of the object in the image as the distance from the portion corresponding to the line-of-sight direction of the head 101 of the robot 100 increases. To do.
映像加工部202が検出する物体は、例えば、人間の顔や、話題になっている物体である。人間の顔を検出する場合には、人間の顔の位置を同定する方法として、取得した映像から画像認識によって顔を検出する方法や、人間にRFID(Radio Frequency IDentification)タグや超音波タグなどといった位置を同定するための機器を持たせてそこからの信号を検出する方法を用いることができる。話題になっている物体を検出する場合には、取得した映像から画像認識によって物体を検出する方法や、人間にRFIDタグや超音波タグなどといった位置を同定するための機器を物体に設置しそこからの信号を検出する方法を用いることができる。さらに、話題になったことを同定するために、人間が物体を動かしたかどうかを画像を用いて検出して動かされた物体を話題になっている物体と同定したり、人間同士の会話を音声認識してモニタリングし、認識された音声で特定される物体に対応する画像を話題になっている物体の画像と同定したりする方法を用いてもよい。 The object detected by the image processing unit 202 is, for example, a human face or an object that has become a hot topic. When detecting a human face, as a method for identifying the position of the human face, a method of detecting the face by image recognition from the acquired video, a RFID (Radio Frequency IDentification) tag, an ultrasonic tag, etc. It is possible to use a method of detecting a signal from an apparatus for identifying the position. When detecting a topical object, a method for detecting the object by image recognition from the acquired image or a device for identifying a position such as an RFID tag or an ultrasonic tag for a human being is installed on the object. Can be used to detect the signal from. Furthermore, in order to identify the topic, it is possible to identify whether or not the object has been moved by detecting whether or not a person has moved the object using an image, or to speak a conversation between people. A method of recognizing and monitoring, and identifying an image corresponding to an object specified by recognized speech as an image of an object in question may be used.
本実施形態の効果を説明する。対面対話において、人間は、その視線や頭部を向ける方向によって他者に自分の意図を伝達する。特に、人物を見たり人物から目をそらしたり、対話において話題になっている物体を見たり物体から目をそらしたりすることによって、その対象に対する興味や、発話権の交代などの情報を伝達する。ロボット100を介した対話においても頭部101の志向を制御することによって同様の効果を期待できる。しかし、ロボットが、対話相手である人物や対話対象である物体以外の部分を志向することが多いと、対話相手の人物に対象に対する興味や発話権交代などの情報を送る意図がないにも関わらず、意図しない意図が伝わってしまう場合がある。 The effect of this embodiment will be described. In face-to-face conversation, human beings communicate their intentions to others according to their line of sight and direction of head. In particular, by looking at a person, looking away from the person, looking at an object that is being talked about in a conversation, or looking away from the object, information about the interest in the target and the change of speaking rights are transmitted. . The same effect can be expected by controlling the orientation of the head 101 in the dialogue through the robot 100. However, if the robot is often oriented to a part other than the person who is the conversation partner or the object that is the target of the conversation, the robot does not intend to send information such as interest or utterance rights to the target person. Unintentional intentions may be transmitted.
本実施形態のように、対話にとって意味がある対象のみをぼかすことによって、そのような対象に対してのみロボット100の頭部101を向けようという動機を操作者に与えることができる。その結果、そのような対象への頭部動作を誤りなく表現することができるようになる。このようにして、広い視野を確保しつつ、ロボット100の頭部101を動作させる動機を操作者に与え、対話において、操作者が興味の対象を伝達したいという意図を正確に伝達することができる。 As in this embodiment, by blurring only objects that are meaningful for dialogue, it is possible to give the operator a motivation to direct the head 101 of the robot 100 only to such objects. As a result, it is possible to express the head movement to such an object without error. In this way, the operator can be motivated to operate the head 101 of the robot 100 while ensuring a wide field of view, and the operator can accurately transmit the intention that the operator wants to transmit the object of interest. .
実施形態4.
次に、本発明の第4の実施形態を説明する。ロボット操作装置の第4の実施形態を含む遠隔コミュニケーションシステムの構成は、図1に示された構成と同じである。ただし、映像加工部202の動作は、第1の実施形態の場合とは異なる。
Embodiment 4 FIG.
Next, a fourth embodiment of the present invention will be described. The configuration of the remote communication system including the fourth embodiment of the robot operating device is the same as the configuration shown in FIG. However, the operation of the image processing unit 202 is different from that in the first embodiment.
第4の実施形態は、第1の実施の形態のように映像加工部202が映像に対してぼかしを施した領域にある物体または人物が動いた場合に、動いた領域を強調した映像を生成することを特徴とする。すなわち、映像加工部202は、物体または人物が動いた場合にその動いた領域を検出し強調表示を行う。 In the fourth embodiment, when an object or a person moves in an area where the image processing unit 202 blurs the image as in the first embodiment, an image in which the moved area is emphasized is generated. It is characterized by doing. That is, when the object or person moves, the image processing unit 202 detects the area where the object or person moves and performs highlighting.
映像加工部202が、動いた領域を検出する方法として、例えば、時々刻々と撮像される映像のフレーム間で各画素の画素値の差分をとり、その差分があらかじめ決められている閾値よりも大きな領域を、動いている領域とする方法がある。また強調表示する方法として、例えば、動いていることが検出された領域に関して、色や輝度値を変えて表示する方法がある。 As a method for detecting a moving area, the image processing unit 202, for example, takes a difference of pixel values of each pixel between frames of an image captured every moment, and the difference is larger than a predetermined threshold value. There is a method of making an area a moving area. Further, as a highlighting method, for example, there is a method of displaying a region where movement is detected by changing the color or the luminance value.
本実施形態の効果を説明する。人間の視覚特性として、視野の周辺部分では解像度が低いが動きを敏感に検出できる特性がある。第1〜第3の実施形態のように周辺視野部分をぼかすだけである場合には、その領域に動きがあるかどうかを伝達することが難しくなることがある。 The effect of this embodiment will be described. As a human visual characteristic, there is a characteristic that the motion is sensitively detected although the resolution is low in the peripheral part of the visual field. When only the peripheral visual field portion is blurred as in the first to third embodiments, it may be difficult to transmit whether there is movement in the region.
本実施形態のように周辺視野部分をぼかしつつさらに動きがある場合にはその部分を強調表示すれば、人間の視覚特性を再現することができる。すなわち、動きを強調することによって、画角の端の領域の部分で動きがあった場合、例えばそれまでいた人物が立ち上がろうとしたり、それまでいなかった人物が近づいてきたりした場合に、操作者は、その動きをいち早く広い視野範囲から検出することができ、そちらにロボット100の頭部101を向ける動機付けが容易になる。 If there is further movement while blurring the peripheral visual field portion as in the present embodiment, the human visual characteristics can be reproduced by highlighting that portion. In other words, by emphasizing the movement, when there is movement in the area at the end of the angle of view, for example, when a person who has been up to that point tries to stand up or a person who has not been there approaches, the operator Can quickly detect the movement from a wide visual field range, and it is easy to motivate the head 101 of the robot 100 to point there.
なお、第1の実施形態と、第2〜第4の実施形態のうちの1つ以上とを任意に組み合わせることができる。 The first embodiment and one or more of the second to fourth embodiments can be arbitrarily combined.
図6は、本発明によるロボット操作装置の主要部をロボットともに示すブロック図である。図6に示すように、ロボット操作装置は、ロボット20が存在する空間を撮像した映像を入力する映像入力部11と、映像入力部11が入力した映像を、ロボット20の頭部等の部位21の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工する映像加工部12と、映像加工部12が加工した映像を表示器15に表示する映像表示部13と、表示器15に表示された映像におけるユーザが指定した位置を向くように部位21を移動させる命令を発行する映像位置指定部14とを備えている。 FIG. 6 is a block diagram showing the main part of the robot operating device according to the present invention together with the robot. As shown in FIG. 6, the robot operating device includes a video input unit 11 that inputs a video obtained by imaging a space in which the robot 20 exists, and a video 21 that is input by the video input unit 11. A video processing unit 12 that processes the image so that the resolution decreases as the distance from the image portion corresponding to the orientation of the image, a video display unit 13 that displays the video processed by the video processing unit 12 on the display 15, and a display on the display 15 A video position specifying unit 14 that issues a command to move the part 21 so as to face the position specified by the user in the displayed video.
図7は、本発明によるロボットシステムの主要部をロボットともに示すブロック図である。図7に示すように、ロボットシステムは、図6に示された構成に加えて、ロボット20が存在する空間の映像を取得する撮像部31と、映像位置指定部14が発行した命令にもとづいて部位21を駆動する駆動部32とを備えている。 FIG. 7 is a block diagram showing the main part of the robot system according to the present invention together with the robot. As shown in FIG. 7, in addition to the configuration shown in FIG. 6, the robot system is based on an imaging unit 31 that acquires an image of a space in which the robot 20 exists, and a command issued by the video position specifying unit 14. And a drive unit 32 for driving the part 21.
図8は、本発明によるロボット操作方法の主要工程を示すフローチャートである。図8に示すように、ロボット操作方法では、ロボットが存在する空間を撮像した映像を入力し(ステップS11)、入力した映像を、ロボットの部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工し(ステップS12)、加工した映像を表示器に表示し(ステップS13)、表示器に表示された映像におけるユーザが指定した位置を向くようにロボットの部位を移動させる命令を発行する(ステップS14)。 FIG. 8 is a flowchart showing the main steps of the robot operating method according to the present invention. As shown in FIG. 8, in the robot operation method, an image obtained by imaging the space in which the robot exists is input (step S11), and the input image is reduced in resolution as the distance from the image portion corresponding to the orientation of the part of the robot increases. Processing to lower (step S12), display the processed video on the display (step S13), and issue a command to move the robot part to face the position specified by the user in the video displayed on the display (Step S14).
本発明は、ロボットを通じて遠隔コミュニケーションを行うシステムにおいて、ユーザがロボットを操作する端末に適用可能である。 The present invention can be applied to a terminal where a user operates a robot in a system for performing remote communication through the robot.
(付記1)一度中心視野が向けられた領域を対象として、その後に視野を外したときに徐々に解像度が下がるようにするステップをさらに含むロボット操作方法。 (Supplementary note 1) A robot operation method further including a step of gradually lowering the resolution when an area to which the central visual field is once directed is subsequently removed when the visual field is removed.
(付記2)入力した映像から所定の物体を検出し、映像における検出された物体の部分を、ロボットの部位の志向に対応する部分から遠くなるほどぼかすステップをさらに含むロボット操作方法。 (Additional remark 2) The robot operation method which further includes the step which detects a predetermined | prescribed object from the input image | video, and blurs the part of the detected object in a video | video so that it is far from the part corresponding to the orientation of the site | part of a robot.
(付記3)入力した映像から人間の顔を検出し、映像における検出された顔の部分のみを、ロボットの部位の志向に対応する映像の部分から遠くなるほどぼかすステップをさらに含むロボット操作方法。 (Additional remark 3) The robot operation method which further includes the step which detects a human face from the input image | video, and blurs only the part of the detected face in a video | video so that it is far from the image | video part corresponding to the orientation of the part of a robot.
(付記4)ロボットの周囲に存在する人物の間で話題になっている物体を検出し、映像における検出された物体の部分のみを、ロボットの部位の志向に対応する映像の部分から遠くなるほどぼかすステップをさらに含むロボット操作方法。 (Appendix 4) Detecting an object that is a topic among people around the robot and blurring only the detected object part in the image as the distance from the image part corresponding to the orientation of the robot part increases. A robot operation method further comprising a step.
(付記5)映像におけるぼかしが施された領域に存在する物体または人物が動いた場合に、動いた物体または人物が存在する領域を強調した映像を生成するステップをさらに含むロボット操作方法。 (Supplementary note 5) A robot operation method further comprising a step of generating an image in which an area where a moving object or person exists is emphasized when an object or person existing in a blurred area in the image moves.
(付記6)一度中心視野が向けられた領域を対象として、その後に視野を外したときに徐々に解像度が下がるようにする処理をさらにコンピュータに実行させるロボット操作プログラム。 (Additional remark 6) The robot operation program which makes a computer perform further the process which makes the resolution fall gradually when it removes a visual field after having targeted the area | region where the central visual field once turned.
(付記7)入力した映像から所定の物体を検出し、映像における検出された物体の部分を、ロボットの部位の志向に対応する部分から遠くなるほどぼかす処理をさらにコンピュータに実行させるロボット操作プログラム。 (Additional remark 7) The robot operation program which detects a predetermined object from the input image | video, and makes a computer perform further the process which blurs the part of the detected object in a video | video so that it is far from the part corresponding to the orientation of the site | part of a robot.
(付記8)入力した映像から人間の顔を検出し、映像における検出された顔の部分のみを、ロボットの部位の志向に対応する映像の部分から遠くなるほどぼかす処理をさらにコンピュータに実行させるロボット操作プログラム。 (Supplementary note 8) Robot operation that detects a human face from the input video and causes the computer to further execute a process of blurring only the detected face portion in the video as the distance from the video portion corresponding to the orientation of the robot part increases program.
(付記9)ロボットの周囲に存在する人物の間で話題になっている物体を検出し、映像における検出された物体の部分のみを、ロボットの部位の志向に対応する映像の部分から遠くなるほどぼかす処理をさらにコンピュータに実行させるロボット操作プログラム。 (Supplementary Note 9) Detects an object that is a topic among persons existing around the robot, and blurs only the detected object part in the image as the distance from the image part corresponding to the orientation of the robot part increases. A robot operation program that causes a computer to further execute processing.
(付記10)映像におけるぼかしが施された領域に存在する物体または人物が動いた場合に、動いた物体または人物が存在する領域を強調した映像を生成する処理をさらにコンピュータに実行させるロボット操作プログラム。 (Additional remark 10) When the object or person which exists in the area | region where the blurring in the image | video was moved, the robot operation program which makes a computer perform further the process which produces | generates the image | video which emphasized the area | region where the moved object or person exists .
11 映像入力部
12 映像加工部
13 映像表示部
14 映像位置指定部
15 表示器
20 ロボット
21 部位
31 撮像部
32 駆動部
100 ロボット
101 頭部
102 カメラ
103 頭部駆動部
111 撮像部
112 映像伝送部
200 操作端末
201 映像受信部
202 映像加工部
203 映像表示部
204 映像位置指定部
300 伝送路
401〜404 参加者
500 カメラ視野
DESCRIPTION OF SYMBOLS 11 Image | video input part 12 Image | video process part 13 Image | video display part 14 Image | video position designation | designated part 15 Display 20 Robot 21 Region | part 31 Imaging part 32 Drive part 100 Robot 101 Head 102 Camera 103 Head drive part 111 Imaging part 112 Image | video transmission part 200 Operation terminal 201 Video reception unit 202 Video processing unit 203 Video display unit 204 Video position designation unit 300 Transmission path 401 to 404 Participant 500 Camera view
Claims (10)
ロボットが存在する空間を撮像した映像を入力する映像入力部と、
前記映像入力部が入力した映像を、前記部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工する映像加工部と、
前記映像加工部が加工した映像を表示器に表示する映像表示部と、
前記表示器に表示された映像におけるユーザが指定した位置を向くように前記部位を移動させる命令を発行する映像位置指定部と
を備えたことを特徴とするロボット操作装置。 A robot operating device that remotely controls a robot having a part that expresses which direction the robot is facing,
A video input unit that inputs a video of the space in which the robot exists;
A video processing unit that processes the video input by the video input unit so that the resolution decreases as the distance from the image portion corresponding to the orientation of the part increases;
A video display unit for displaying the video processed by the video processing unit on a display;
A robot operation device comprising: a video position specifying unit that issues a command to move the part so as to face a position specified by a user in the video displayed on the display.
請求項1記載のロボット操作装置。 The robot operation device according to claim 1, wherein the image processing unit is configured to target the region where the central visual field is once directed and gradually decrease the resolution when the visual field is subsequently removed.
請求項1または請求項2記載のロボット操作装置。 The video processing unit detects a predetermined object from the video input by the video input unit, and performs a process of blurring a portion of the detected object in the video as the distance from the portion corresponding to the orientation of the part increases. Item 3. The robot operating device according to Item 2.
請求項3記載のロボット操作装置。 The video processing unit detects a human face from the video input by the video input unit, and performs a process of blurring only the detected face part in the video as the distance from the video part corresponding to the orientation of the part increases. 3. The robot operating device according to 3.
請求項3または請求項4記載のロボット操作装置。 The image processing unit detects an object that has become a hot topic among persons existing around the robot, and blurs only the detected object part in the image as the distance from the image part corresponding to the orientation of the part increases. The robot operating device according to claim 3 or 4, wherein processing is performed.
請求項1から請求項5のうちのいずれか1項にロボット操作装置。 The image processing unit generates an image in which an area where a moving object or person exists is emphasized when an object or person existing in a blurred area in the image moves. The robot operating device according to any one of
請求項1から請求項6のうちのいずれか1項にロボット操作装置。 The robot operation apparatus according to claim 1, wherein the part is a head.
ロボットが存在する空間の映像を取得する撮像部と、
映像位置指定部が発行した命令にもとづいて前記部位を駆動する駆動部と
を備えたロボットシステム。 The robot operating device according to any one of claims 1 to 6,
An imaging unit that acquires an image of a space in which the robot exists;
A robot system comprising: a drive unit that drives the part based on a command issued by the video position designation unit.
ロボットが存在する空間を撮像した映像を入力し、
入力した映像を、前記部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工し、
加工した映像を表示器に表示し、
前記表示器に表示された映像におけるユーザが指定した位置を向くように前記部位を移動させる命令を発行する
ことを特徴とするロボット操作方法。 A robot operation method for remotely operating a robot having a part expressing which direction the robot is facing,
Input an image of the space where the robot exists,
Process the input video so that the resolution decreases as the distance from the part of the image corresponding to the orientation of the part,
Display the processed image on the display,
A robot operation method characterized by issuing a command to move the part so as to face a position designated by a user in an image displayed on the display.
ロボットが存在する空間を撮像した映像を入力する処理と、
入力した映像を、前記部位の志向に対応する画像の部分から遠くなるほど解像度を下げるように加工する処理と、
加工した映像を表示器に表示する処理と、
前記表示器に表示された映像におけるユーザが指定した位置を向くように前記部位を移動させる命令を発行する処理と
を実行させるためのロボット操作プログラム。 In a computer mounted on a robot operating device that remotely controls a robot having a part that expresses which direction the robot is facing,
Processing to input a video image of the space where the robot exists,
Processing to process the input video so that the resolution decreases as the distance from the part of the image corresponding to the orientation of the part,
Processing to display the processed video on the display;
And a process of issuing a command to move the part so as to face a position designated by a user in the video displayed on the display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010014035A JP2011152593A (en) | 2010-01-26 | 2010-01-26 | Robot operation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010014035A JP2011152593A (en) | 2010-01-26 | 2010-01-26 | Robot operation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011152593A true JP2011152593A (en) | 2011-08-11 |
Family
ID=44538911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010014035A Pending JP2011152593A (en) | 2010-01-26 | 2010-01-26 | Robot operation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011152593A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016502294A (en) * | 2012-10-01 | 2016-01-21 | リボルブ ロボティクス インク | Robot stand and system and method for controlling the stand during a video conference |
US9955574B2 (en) | 2012-01-13 | 2018-04-24 | Jx Nippon Mining & Metals Corporation | Copper foil composite, formed product and method of producing the same |
US9981450B2 (en) | 2012-01-13 | 2018-05-29 | Jx Nippon Mining & Metals Corporation | Copper foil composite, formed product and method of producing the same |
US10178816B2 (en) | 2011-05-13 | 2019-01-08 | Jx Nippon Mining & Metals Corporation | Copper foil composite, copper foil used for the same, formed product and method of producing the same |
JP2019110535A (en) * | 2017-12-15 | 2019-07-04 | 株式会社電通国際情報サービス | Communication device and remote communication system |
WO2022201683A1 (en) * | 2021-03-23 | 2022-09-29 | 株式会社Jvcケンウッド | Remotely controlled device, image display device, and video display control method |
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
CN115225682A (en) * | 2021-04-15 | 2022-10-21 | 本田技研工业株式会社 | Management server, remote operation system, remote operation method, and storage medium |
JP2023133343A (en) * | 2018-10-01 | 2023-09-22 | カシオ計算機株式会社 | Robot, method for controlling direction, and program |
WO2024075707A1 (en) * | 2022-10-07 | 2024-04-11 | 京セラ株式会社 | System, electronic device, method for controlling system, and program |
-
2010
- 2010-01-26 JP JP2010014035A patent/JP2011152593A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10178816B2 (en) | 2011-05-13 | 2019-01-08 | Jx Nippon Mining & Metals Corporation | Copper foil composite, copper foil used for the same, formed product and method of producing the same |
US9955574B2 (en) | 2012-01-13 | 2018-04-24 | Jx Nippon Mining & Metals Corporation | Copper foil composite, formed product and method of producing the same |
US9981450B2 (en) | 2012-01-13 | 2018-05-29 | Jx Nippon Mining & Metals Corporation | Copper foil composite, formed product and method of producing the same |
JP2016502294A (en) * | 2012-10-01 | 2016-01-21 | リボルブ ロボティクス インク | Robot stand and system and method for controlling the stand during a video conference |
JP7189406B2 (en) | 2017-12-15 | 2022-12-14 | 株式会社電通国際情報サービス | Communication device and remote communication system |
JP2019110535A (en) * | 2017-12-15 | 2019-07-04 | 株式会社電通国際情報サービス | Communication device and remote communication system |
JP7374581B2 (en) | 2018-10-01 | 2023-11-07 | カシオ計算機株式会社 | Robot, image processing method and program |
JP2023133343A (en) * | 2018-10-01 | 2023-09-22 | カシオ計算機株式会社 | Robot, method for controlling direction, and program |
JP7613509B2 (en) | 2018-10-01 | 2025-01-15 | カシオ計算機株式会社 | Robot, direction control method and program |
CN115398887A (en) * | 2021-03-23 | 2022-11-25 | Jvc建伍株式会社 | Remote controlled device, image display device and image display control method |
JPWO2022201683A1 (en) * | 2021-03-23 | 2022-09-29 | ||
WO2022201683A1 (en) * | 2021-03-23 | 2022-09-29 | 株式会社Jvcケンウッド | Remotely controlled device, image display device, and video display control method |
EP4319145A4 (en) * | 2021-03-23 | 2024-09-25 | JVCKenwood Corporation | REMOTE CONTROLLED DEVICE, IMAGE DISPLAY DEVICE AND VIDEO DISPLAY CONTROL METHOD |
US12296491B2 (en) | 2021-03-23 | 2025-05-13 | Jvckenwood Corporation | Remote controlled device, image display device, and video display control method |
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
US12280489B2 (en) * | 2021-03-24 | 2025-04-22 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
CN115225682A (en) * | 2021-04-15 | 2022-10-21 | 本田技研工业株式会社 | Management server, remote operation system, remote operation method, and storage medium |
CN115225682B (en) * | 2021-04-15 | 2024-01-19 | 本田技研工业株式会社 | Management server, remote operation system, remote operation method, and storage medium |
WO2024075707A1 (en) * | 2022-10-07 | 2024-04-11 | 京セラ株式会社 | System, electronic device, method for controlling system, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011152593A (en) | Robot operation device | |
US12299790B2 (en) | Information processing apparatus and information processing method | |
CN109952759B (en) | Improved method and system for video conferencing with HMD | |
US10719950B2 (en) | Head mount display (HMD) operated with mobile device for transforming reference coordinate systems for providing screen information | |
JP6264665B2 (en) | Image processing method and image processing apparatus | |
JP5012968B2 (en) | Conference system | |
US11417062B2 (en) | Information processing device, information processing method, and program | |
JP6091669B2 (en) | IMAGING DEVICE, IMAGING ASSIST METHOD, AND RECORDING MEDIUM CONTAINING IMAGING ASSIST PROGRAM | |
JP7242448B2 (en) | VIRTUAL REALITY CONTROL DEVICE, VIRTUAL REALITY CONTROL METHOD AND PROGRAM | |
US10771707B2 (en) | Information processing device and information processing method | |
CN105933637A (en) | Video communication method and system | |
US20210400234A1 (en) | Information processing apparatus, information processing method, and program | |
US9848168B2 (en) | Method, synthesizing device, and system for implementing video conference | |
JP2012175136A (en) | Camera system and control method of the same | |
JP2016213674A (en) | Display control system, display control apparatus, display control method, and program | |
US20160182860A1 (en) | Methods for performing image capture and real-time image display on physically separated or separable devices and apparatus therefor | |
EP3040893B1 (en) | Display of private content | |
WO2008066705A1 (en) | Image capture apparatus with indicator | |
WO2012008553A1 (en) | Robot system | |
JP2007158680A (en) | Tracking imaging apparatus and tracking imaging system utilizing it | |
JP2004289779A (en) | Mobile body imaging method and mobile body imaging system | |
CN117311506A (en) | Augmented reality interaction method and device and augmented reality equipment | |
CN117093124A (en) | Method, device, equipment and medium for adjusting AR display interface | |
WO2018074262A1 (en) | Communication device, communication method, and program | |
JP2010004480A (en) | Imaging apparatus, control method thereof and program |