WO2012008553A1 - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- WO2012008553A1 WO2012008553A1 PCT/JP2011/066164 JP2011066164W WO2012008553A1 WO 2012008553 A1 WO2012008553 A1 WO 2012008553A1 JP 2011066164 W JP2011066164 W JP 2011066164W WO 2012008553 A1 WO2012008553 A1 WO 2012008553A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- action
- user
- behavior
- control information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
Definitions
- the present invention relates to a robot system.
- a remote user In order to facilitate communication between users at remote locations and people at the site, use the movement of the line of sight of the robot acting on behalf of the user at the site, and tell the people at the site what the remote user sees at the site. It is important to communicate. In order to achieve this, a remote user must control the posture of the mechanism on which the robot camera is mounted so that the robot's line of sight is aligned with a desired object at the site.
- a user makes a robot attend a remote conference hall, and uses an operation terminal for operating the robot from a remote location to operate the head of the robot equipped with the camera. Can do. By moving the head, the user can control the direction of the camera at a remote location and acquire an image in the direction desired by the user.
- the participant in the conference hall with the direction of the head of the robot can understand what the user is looking at.
- a remote user can use the head operation unit of the operation terminal to operate the head of a robot equipped with a camera in the field. Therefore, the user can view the video captured by the head camera on the operation terminal.
- materials are displayed on a display that can be viewed by all participants on the site, and participants discuss while viewing the screen.
- the user at the remote location does not look at the display on which the material at the site is displayed via the operation terminal, but displays the same material on another display installed at the remote location and discusses it while referring to it. May participate in.
- the operation device includes a behavior association storage unit that stores behavior sensing information and robot control information in association with each other, and inputs a measurement value from a sensor that measures a user's behavior, and the behavior association
- An action determining means for retrieving action sensing information matching the measured value from a storage means and outputting a control command for taking an action described in the robot control information corresponding to the retrieved action sensing information to the robot; .
- An operation program inputs a measurement value from a sensor that measures a user's behavior and a storage process in which behavior sensing information and robot control information are associated with each other and stored in the behavior association storage unit.
- behavior sensing information and robot control information are associated with each other and stored in a behavior association storage unit, and a measurement value is input from a sensor that measures a user's behavior, and the behavior association is performed.
- the behavior sensing information matching the measured value is retrieved from the storage means, and a control command for taking the behavior described by the robot control information corresponding to the retrieved behavior sensing information is output to the robot.
- the robot system of the present invention makes it easy for a user to cause a robot to perform a predetermined operation through his / her own operation.
- FIG. 1 is a diagram illustrating an example of a first embodiment of a robot system 90 according to the present invention.
- the robot system 90 according to the first embodiment includes an operation device 10 and a robot 20.
- the operation device 10 is often installed in a remote place of the robot 20, but may be installed in a nearby place such as an adjacent room.
- the operating device 10 is installed in a remote place of the robot 20.
- the operating device 10 and the robot 20 are connected via a network.
- the network may be either wireless or wired. In the case of wireless, the network is a wireless local area network (LAN), a mobile phone network, or the like.
- LAN wireless local area network
- mobile phone network or the like.
- the network is serial communication, parallel communication, LAN, or the like.
- the network may be another alternative communication method.
- the robot 20 includes an audio input unit 21 such as a microphone and a video input unit 22 such as a camera.
- the voice input by the voice input unit 21 and the image input by the video input unit 22 are transmitted to the voice presentation unit 11 such as a speaker of the operation device 10 and the video presentation unit 12 such as a display device via a network, and are transmitted to a remote place. Is presented to the user of the operating device 10.
- the controller device 10 includes a voice input unit 17.
- the voice input by the voice input unit 17 is transmitted to the voice presentation unit 25 of the robot 20 via the network, and presented to people in the field such as a conference room.
- the operation device 10 includes an operation input unit 13.
- the user of the operation device 10 wants to move the head of the robot 20 or the like, the user operates the joystick 31 or the like of the operation input unit 13.
- the operation determination unit 16 transmits a control command to the operation control unit 24 of the robot 20 via the network to operate the operation mechanism 23.
- the operating device 10 includes an action recognition unit 14.
- the behavior recognition unit 14 is a sensor that is mounted on the user's head, for example, and measures the user's motion and posture.
- the action determination unit 16 When recognizing that a remote user has performed a certain action from the input measurement value, the action determination unit 16 generates action sensing information corresponding to the action.
- the operation determination unit 16 is configured by hardware such as a logic circuit.
- the operation determination unit 16 may be realized by a processor (not shown) of the operation device 10 that is also a computer reading and executing a program stored in a memory.
- the program is stored in, for example, a hard disk device connected to the operation device 10 and is read into the memory when the operation device 10 is initially set.
- FIG. 6 shows an example of data recorded in the action association DB 15.
- the action association DB 15 includes data that associates the actions of the user and the robot 20.
- the action determination unit 16 refers to the data and recognizes that the user's line of sight at the remote place has seen the object (for example, the material A at hand) at the remote place. Then, the same unit installs the line of sight of the robot 20 in the field (for example, a conference room) and corresponds to the object (for example, the document A displayed on the screen) associated with what the user sees on the remote side. Perform the action of pointing the camera in the direction.
- the behavior association DB 15 is a table including one or more records (rows) that associate the behavior sensing information 53 and the robot control information 54. Each record of the action association DB 15 may include an ID 51 and an action recognition type 52.
- the behavior sensing information 53 is data describing a user's behavior (posture, motion, etc.).
- the behavior sensing information 53 is, for example, a predetermined position centered on one or more virtual rotation axes of the user's head measured by the behavior recognition unit 14 (angle sensor 41) mounted on the user's head. Or the rotation angle from the current position.
- the behavior sensing information 53 includes a single angle, a change from one angle within a predetermined time to another angle, a holding time of the same angle, and the like.
- the robot control information 54 is data describing the behavior of the robot 20.
- the robot control information 54 is, for example, a rotation angle from a predetermined position or a current position around one or more operation rotation axes of the head of the robot 20.
- the robot control information 54 includes a single angle, a change from one angle within a predetermined time to another angle, a holding time of the same angle, and the like.
- the action recognition type 52 stores text indicating the type of action. Each data stored in the action association DB 15 may be stored in advance before the robot system 90 is activated, or may be stored by the user using the operation device 10 as described later.
- the action determination unit 16 inputs one or more measurement values from the action recognition unit 14 (angle sensor 41), and based on the measurement value itself, a change in the measurement value, a holding time of the same value, or the like Generate sensing information.
- the action determining unit 16 takes the action described by the robot control information 54 of the matched record.
- the robot 20 is controlled.
- the record includes data such as “value of angle sensor 41, upper 10 degrees, left 100 degrees” as behavior sensing information 53, and data “head up 20 degrees, right 90 degrees” as robot control information 54. .
- the action recognition unit 14, the action determination unit 16, the action control unit 24, and the like as the action sensing information 53, “moved the head downward by 5 deg within 1 sec and then moved upward by 5 deg”, and the robot control information 54 as “ The head may be moved 10 deg downward in 0.5 sec and moved 10 deg upward in 0.5 sec ”.
- the voice presentation unit 11, the video presentation unit 12, the operation input unit 13, the action recognition unit 14, and the voice input unit 17 may be provided in another device outside the operation device 10.
- the behavior recognition unit 14 may monitor a user's behavior from a video image of a camera installed in the vicinity of the user and detect a head, hand position, eyelid movement, mouth movement, and the like.
- the behavior sensing information 53 may include data such as pointing a finger at the object, moving the object, or using a function of the object.
- the robot control information 54 may describe the behavior of the robot 20 such as moving an arm or self-running. In this case, it is assumed that the robot 20 can take the described action.
- FIG. 2 is a view showing the appearance of the robot 20.
- the robot 20 has a video input unit 22 that captures video on the robot 20 side, a voice input unit 21 that records audio, and a remote site side in order to realize a dialogue between a remote user and a person on the robot 20 side. You may provide the audio
- the robot 20 includes an operation mechanism 23 for transmitting a user's movement at a remote place.
- the motion mechanism 23 is moved by an actuator and operates in the vertical direction as a pitch axis and the horizontal direction as a yaw axis as an operation rotation axis.
- the operation mechanism 23 may have an operation axis in the direction of the neck that is a roll axis.
- the operation mechanism 23 may have an actuator of any one of a pitch axis, a yaw axis, and a roll axis.
- the operation mechanism 23 may include an actuator capable of translational operation in the front / rear, up / down, and left / right directions.
- the robot 20 may further include a moving mechanism that moves the robot 20 itself in addition to the head as the operation mechanism 23.
- the moving mechanism may be either a wheel mechanism that can move in all directions or a wheel mechanism that includes two parallel driving wheels.
- the video input unit 22 may calculate distance information using a plurality of cameras and present the distance information to the user on the controller device 10 side. Further, the video input unit 22 may have a zoom mechanism, and may capture a video with a zoom magnification desired by the user on the operation device 10 side.
- the video input unit 22 may be equipped with a plurality of cameras having different shooting directions so that the user on the operation device 10 side can select a video.
- the video input unit 22 may be equipped with a camera that captures the entire periphery of the robot 20, a super wide-angle camera, and a fisheye camera.
- the audio input unit 21 is a monaural microphone or a stereo microphone. Moreover, the voice input unit 21 may measure the direction of sound using a plurality of microphones and present it to the operation device 10 side user.
- the robot 20 may include a line-of-sight display unit 28 that enables a person observing the robot 20 to determine the line of sight of the robot 20.
- the line-of-sight display unit 28 is, for example, unevenness that represents the eyes and nose of the robot 20.
- FIG. 3 is a diagram illustrating an appearance of the operation device 10.
- the operation device 10 is a device for a remote user to remotely operate the robot 20.
- the operation device 10 includes an operation input unit 13 for inputting the movement of the robot 20, a video presentation unit 12 that presents a video shot on the robot 20 side, and a voice presentation that presents voice input on the robot 20 side.
- Unit 11 and a voice input unit 17 for inputting a voice of a remote user.
- a user who uses the operation device 10 interacts with a person (site person) on the robot 20 side through voice, video, and movement of the robot 20.
- FIG. 1 is a diagram illustrating an appearance of the operation device 10.
- the operation device 10 is a device for a remote user to remotely operate the robot 20.
- the operation device 10 includes an operation input unit 13 for inputting the movement of the robot 20, a video presentation unit 12 that presents a video shot on the robot 20 side, and a voice presentation that presents voice input on the robot 20 side.
- the operation input unit 13 includes, for example, a two-axis joystick 31 for controlling the upper and lower and left and right axes of the head of the robot 20.
- the operation input unit 13 includes a line-of-sight recording button 32 for recording the line of sight of the robot 20.
- the action recognition part 14 is the angle sensor 41 which is fixed to the head of the user of a remote place, and measures the attitude
- the operation input unit 13 is configured to rotate the pitch axis, the yaw axis, and the roll axis of the robot 20 head in accordance with the operation rotation axis of the motion mechanism 23 of the head of the robot 20 and any of the front / back, up / down, and left / right translation operations.
- a plurality of joysticks 31 for inputting such an operation may be provided.
- FIG. 5 is a flowchart for explaining the processing flow of the operation determination unit 16.
- the motion determination unit 16 controls the motion mechanism 23 so that the robot 20 sees the same kind of object at the site when the user at the remote location views the object at the remote location.
- the action determination unit 16 executes a process of associating the action of the user at the remote place with the action of the robot 20 and the process of controlling the action of the robot 20 based on the recognition result of the action of the user at the remote place. .
- the operation determination unit 16 determines whether or not there is an operation input of the joystick 31 (S1).
- the operation determination unit 16 outputs a control command for instructing the action to the operation control unit 24 of the robot 20 in accordance with the input of the joystick 31 (S2).
- the motion determining unit 16 transmits a control command for moving the head of the robot 20 upward.
- the motion determination unit 16 may change the motion speed of the head of the robot 20 according to the tilt amount of the joystick 31. Further, the motion determination unit 16 may use the tilt amount of the joystick 31 as the motion angle of the head of the robot 20.
- the operation determination unit 16 determines whether the line-of-sight recording button 32 has been pressed (S3). When the line-of-sight recording button 32 is pressed (Y in S3), the operation determination unit 16 generates behavior sensing information based on the measurement value input from the behavior recognition unit 14 at the timing of pressing. At the same time, the same unit reads the posture data of the motion mechanism 23 of the robot 20 (S4), associates both, and records them in the action association DB 15 (S5).
- the action determination unit 16 changes the measurement value of the angle sensor 41 at the time when the line-of-sight recording button 32 is pressed, the change of the measurement value within a predetermined time (for example, several seconds) before the time point, or the holding time of the same measurement value. Action sensing information based on the above is generated.
- An example of how to use the line-of-sight recording button 32 is as follows. As a first step, the user operates the joystick 31 or the like in advance so that the line-of-sight display means 28 on the head of the robot 20 faces a television screen or the like (second object) in the field in advance. When the robot 20 includes the video input unit 22, the user can easily perform this operation while viewing the image captured by the video input unit 22 through the video presentation unit 12 of the operation device 10.
- a user at a remote location presses the line-of-sight recording button 32 with his head facing the direction of a television or the like (first object) installed near the user.
- the posture data robot control information 54
- the measured values of the head angle sensor 41 and the like are associated with each other and recorded in the behavior association DB 15.
- the operation determination unit 16 inputs the current measurement value of the angle sensor 41 and the like, and compares whether the behavior sensing information based on the measurement value matches any of the behavior sensing information 53 registered in the behavior association DB 15. (S6). At this time, the motion determination unit 16 may determine a complete match, or whether the current behavior sensing information obtained from the angle sensor 41 is closer to the value registered in the behavior association DB 15 than the predetermined value. The approximate match may be determined by By this process, the operation determination unit 16 determines that the user at the remote location has taken the action of looking at the first target object at the remote location.
- the action determination unit 16 takes action described by the robot control information 54 registered in the action association DB 15 corresponding to the action sensing information 53.
- the robot 20 performs an action of viewing the second object on the spot that is associated with the first object at the remote place viewed by the user at the remote place.
- the action association DB 15 in which the action sensing information 53 and the robot control information 54 are already stored is prepared in advance, the line-of-sight recording button 32 may not be provided.
- the operation determination unit 16 does not have to implement the process (S3 to S5) when the line-of-sight recording button 32 is pressed.
- the behavior of the robot 20 (description content of the robot control information 54) need not be the same as the user's behavior (description content of the behavior sensing information 53). That is, the moving direction of the user's head (up / down / left / right, etc.) and the moving direction of the head of the robot 20 may be different, or the moving angle may be different.
- the robot system 90 of the present invention makes it easy for the user to cause the robot 20 to perform a predetermined operation through his / her own operation. The reason is that when the controller device 10 recognizes that the user has performed the behavior described by the behavior sensing information 53, the robot 20 causes the robot 20 to take the behavior described by the robot control device 54.
- the user can operate the robot 20 only by performing an action according to his / her purpose and desire.
- the robot system 90 of the present invention facilitates communication between people in the field such as a conference room and users in other places such as remote locations. For example, a display that displays the document A at the user's hand without the remote user pointing the head of the robot 20 at the site to the screen of the site displaying the document A (while keeping another direction) , The person at the site is not notified that the user at the remote location is viewing the document A. As a result, there is a problem that discussion between the user and the people on site cannot be smoothly conducted.
- the robot system 90 of the present invention prevents such a situation from occurring.
- FIG. 7 is a diagram illustrating a configuration of the operation input unit 13 and the action recognition unit 14 of the second embodiment.
- the action recognition unit 14 detects and recognizes a barcode from a camera 42 fixed to the user's head so that a user at a remote location can take a picture, and an image of the imaging result of the camera 42.
- the barcode recognition unit 43 outputs the reading result to the operation determination unit 16.
- the action recognition unit 14 recognizes the behavior that the user at the remote location has seen the material by reading the barcode. Is possible. In addition, if you paste objects such as a sheet with a barcode printed in advance on a remote object, such as a television or a whiteboard, the action that a remote user saw those objects, The operation determination unit 16 can determine by reading the barcode. What is attached to the object may be not only a barcode sheet but also an infrared transmitter, a radio transmitter, a QR code, or the like.
- the action recognition unit 14 may be configured to recognize each tag. For example, the action recognition unit 14 may include an IC tag reader instead of the camera 42.
- the robot 20 may be mounted with a camera on the head and detect a tag attached to the site side.
- the motion determination unit 16 can detect a predetermined tag with the camera 42 on the head of the robot 20. May be controlled. With this configuration, the action of the user or the robot 20 to see a certain object is realized by an operation of reading a tag attached to the object.
- the action association DB 15 may further store a barcode or tag value to be read by the robot 20 as the robot control information 54.
- the operation device 10 expands the degree of freedom of user operation and the degree of freedom of action setting of the robot 20. The reason is that the camera 42 or the IC tag reader provided in the operation terminal 10 reads the barcode or tag to recognize the user's action. In addition, the IC tag reader or the like included in the robot 20 reads the barcode or tag to determine the behavior of the robot 20.
- FIG. 8 is a diagram illustrating a configuration of the operation device 10 according to the third embodiment.
- the operating device 10 includes an action association DB 15 and an action determination unit 16.
- the behavior association DB 15 stores behavior sensing information 53 and robot control information 54 in association with each other.
- the action determination unit 16 inputs a measurement value from a sensor that measures the user's action, searches the action association DB 15 for action sensing information 53 that matches the measurement value, and performs robot control corresponding to the searched action sensing information 53.
- a control command for taking an action described by the information 54 is output to the robot 20.
- the robot system 90 of the present invention makes it easy for the user to cause the robot 20 to perform a predetermined operation through his / her own operation. The reason is that when the controller device 10 recognizes that the user has performed the behavior described by the behavior sensing information 53, the robot 20 causes the robot 20 to take the behavior described by the robot control device 54.
- Each unit of the robot system 90 described above may be realized by hardware such as a logic circuit, or may be realized by a computer and software executed on the computer.
- the present invention is not limited to the above embodiment.
- Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
- This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2010-160440 for which it applied on July 15, 2010, and takes in those the indications of all here.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステムに関する。 The present invention relates to a robot system.
遠隔地のユーザと現場の人とコミュニケーションを円滑にするためには、現場でユーザの代理となるロボットの視線の動きをつかい、遠隔地のユーザが現場の何を見ているかを現場の人に伝えることが重要である。これを実現するためには、遠隔地のユーザが、現場の所望する物にロボットの視線を合わせるようにロボットのカメラが搭載されている機構の姿勢を制御しなくてはいけない。
たとえば特許文献1に記載されたロボット装置では、ユーザは遠隔地の会議場にロボットを出席させ、ロボットを遠隔地から操作する操作端末を使い、カメラが搭載されたロボットの頭部を動作させることができる。ユーザは頭部を動かすことで、遠隔地のカメラの方向を制御し、ユーザが所望する方向の映像を取得することが可能である。また、ロボットの頭部の向きで会議場にいる参加者はユーザが何を見ているのかを理解できる。
In order to facilitate communication between users at remote locations and people at the site, use the movement of the line of sight of the robot acting on behalf of the user at the site, and tell the people at the site what the remote user sees at the site. It is important to communicate. In order to achieve this, a remote user must control the posture of the mechanism on which the robot camera is mounted so that the robot's line of sight is aligned with a desired object at the site.
For example, in the robot apparatus described in
特許文献1に記載されたシステムでは、遠隔地のユーザが操作端末の頭部操作部を使い、現場にいるカメラが搭載されたロボットの頭部を動作させることができる。従って当該ユーザは、頭部のカメラで撮影された映像を操作端末で見ることができる。実際の会議などの利用シーンでは、現場側で資料が現場の参加者全員が見ることのできるディスプレイに表示され、参加者がその画面を見ながら議論をするケースがある。このとき遠隔地のユーザは、操作端末を介して現場にある資料が表示されたディスプレイを見ずに、遠隔地に設置された別のディスプレイに同じ資料を表示して、それを参照しながら議論に参加する場合がある。このような使い方をする場合、遠隔地のユーザはディスプレイの資料を見ていることを現場の人に理解してもらうために、ロボットの頭部を現場のディスプレイに向ける操作をした上で、遠隔地のディスプレイに表示された資料を読むという手続きをする必要がある。
したがって、特許文献1に記載されたロボットは、現場のロボットの操作をするのが面倒であるという問題がある。本発明は、上記課題を解決するためのロボットシステムを提供することである。
In the system described in
Therefore, the robot described in
本発明の一実施形態の操作装置は、行動センシング情報とロボット制御情報を対応させて格納する行動対応付け記憶手段と、ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する動作決定手段、を備える。
本発明の一実施形態の操作プログラムは、コンピュータに、行動センシング情報とロボット制御情報を対応させて行動対応付け記憶手段に格納させる格納処理と、ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する動作決定処理、を実行させる。
本発明の一実施形態の操作方法は、行動センシング情報とロボット制御情報を対応させて行動対応付け記憶手段に格納し、ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する。
The operation device according to an embodiment of the present invention includes a behavior association storage unit that stores behavior sensing information and robot control information in association with each other, and inputs a measurement value from a sensor that measures a user's behavior, and the behavior association An action determining means for retrieving action sensing information matching the measured value from a storage means and outputting a control command for taking an action described in the robot control information corresponding to the retrieved action sensing information to the robot; .
An operation program according to an embodiment of the present invention inputs a measurement value from a sensor that measures a user's behavior and a storage process in which behavior sensing information and robot control information are associated with each other and stored in the behavior association storage unit. And searching for behavior sensing information that matches the measured value from the behavior association storage means, and outputting to the robot a control command for taking an action described by the robot control information corresponding to the searched behavior sensing information. The operation determination process is executed.
In an operation method according to an embodiment of the present invention, behavior sensing information and robot control information are associated with each other and stored in a behavior association storage unit, and a measurement value is input from a sensor that measures a user's behavior, and the behavior association is performed. The behavior sensing information matching the measured value is retrieved from the storage means, and a control command for taking the behavior described by the robot control information corresponding to the retrieved behavior sensing information is output to the robot.
本発明のロボットシステムは、ユーザが、自分の動作等を通じて、ロボットに所定の動作をさせること等を容易にする。 The robot system of the present invention makes it easy for a user to cause a robot to perform a predetermined operation through his / her own operation.
次に、発明に係るロボットシステム90を実施するための形態について図面を参照して詳細に説明する。
図1は、本発明のロボットシステム90の第1の実施形態の例を示す図である。第1の実施形態のロボットシステム90は、操作装置10とロボット20を備える。操作装置10は、ロボット20の遠隔地に設置されることが多いが、隣の部屋などの近接地に設置されても良い。以下、操作装置10は、ロボット20の遠隔地に設置されているものとする。操作装置10とロボット20はネットワークを介して接続される。ネットワークは、無線、有線のいずれかの構成としてよい。無線の場合、ネットワークは無線LAN(Local Area Network)、携帯電話網等である。有線の場合、ネットワークはシリアル通信、パラレル通信、LAN等である。ネットワークは、他の代替可能な通信方式でもよい。
ロボット20はマイク等の音声入力部21とカメラ等の映像入力部22を備える。音声入力部21が入力した音声と映像入力部22が入力した画像は、ネットワークを介して操作装置10のスピーカ等の音声提示部11とディスプレイ装置等の映像提示部12に伝送され、遠隔地にいる操作装置10のユーザに提示される。また、操作装置10は音声入力部17を備える。音声入力部17が入力した音声は、ネットワークを介してロボット20の音声提示部25に伝送され、会議室等の現場の人々に提示される。
操作装置10は操作入力部13を備える。操作装置10のユーザがロボット20の頭部などを動作させたい場合、ユーザは操作入力部13のジョイスティック31等を操作する。操作入力部13から当該操作を伝える信号を入力すると、動作決定部16は、ネットワークを介してロボット20の動作制御部24に制御命令を伝達し、動作機構23を動作させる。
操作装置10は行動認識部14を備える。行動認識部14は、例えばユーザの頭部に装着されて、ユーザの動作や姿勢を測定するセンサである。入力した測定値から遠隔地のユーザがある行動をしたと認識した時に、動作決定部16は、当該行動に対応する行動センシング情報を生成する。その後、同部は、行動対応付けDB15(Data Base)に記録されている行動センシング情報53のなかから当該情報に合致するものを検索する。同部は、検索した行動センシング情報53に対応付けられたロボット制御情報54で記述される動作を実行するように、ネットワークを介してロボット20の動作制御部24に制御命令を送信する。
動作決定部16は、論理回路等のハードウェアで構成される。動作決定部16は、コンピュータでもある操作装置10の図示されないプロセッサが、メモリに格納されたプログラムを読み込んで実行することで実現されても良い。当該プログラムは、例えば、操作装置10に接続されたハードディスク装置に格納されており、操作装置10の初期設定時に当該メモリに読み込まれる。
図6は、行動対応付けDB15に記録されているデータの例を示す。行動対応付けDB15は、ユーザとロボット20の行動を対応付けるデータを包含する。動作決定部16は当該データを参照して、遠隔地のユーザの視線が遠隔地側にある物体(例えば、手元の資料A)を見たことを認識する。そして同部は、ロボット20の視線を現場(例えば、会議室)に設置された、ユーザが遠隔地側で見たものに対応付けられた物体(例えば、スクリーン上に表示された資料A)の方向にカメラを向けるという動作を実行する。
行動対応付けDB15は、行動センシング情報53とロボット制御情報54を対応付ける1以上のレコード(行)を包含するテーブルである。行動対応付けDB15の各レコードは、ID51と行動認識種類52を含んでいても良い。
行動センシング情報53は、ユーザの行動(姿勢や動作等)を記述するデータである。行動センシング情報53は、例えば、ユーザの頭部に装着された行動認識部14(角度センサ41)で測定されるユーザの頭部の仮想的な1以上の動作回転軸を中心とした、所定位置または現位置からの回転角度である。行動センシング情報53は、単一角度、所定時間内のある角度から別の角度への変化、同一角度の保持時間等を包含する。
ロボット制御情報54は、ロボット20の行動を記述するデータである。ロボット制御情報54は、例えば、ロボット20の頭部の1以上の動作回転軸を中心とした所定位置または現位置からの回転角度である。ロボット制御情報54は、単一角、所定時間内のある角度から別の角度への変化、同一角度の保持時間等を包含する。
行動認識種類52は、行動の種類を示すテキストを格納する。
行動対応付けDB15に格納される各データは、ロボットシステム90の起動前に予め格納されていても良いし、後述するように、ユーザが操作装置10を用いて格納しても良い。
動作決定部16は、行動認識部14(角度センサ41)から1以上の測定値を入力して、当該測定値自体、当該測定値の変化、または、同一値の保持時間等に基づいて、行動センシング情報を生成する。動作決定部16は、生成した行動センシング情報が行動対応付けDB15に格納されている行動センシング情報53の値に一致した場合に、一致したレコードのロボット制御情報54で記述される行動を取るようにロボット20を制御する。
具体的な例として、図6のID=1のレコードは、行動認識種類52として「テレビを見た」というテキストを格納している。同レコードは、行動センシング情報53として「角度センサ41の値、上10度、左100度」というデータを、ロボット制御情報54として「頭部を上20度、右90度」というデータを包含する。
ユーザの頭部の角度を測定する角度センサ41の測定値から、ユーザの行動を「角度センサの値、上10度、左100度」と判断すると、動作決定部16は、行動対応付けDB15を検索して、図6のID=1のレコードを発見する。続いて、動作決定部16は、同レコードのロボット制御情報54に基づいて、「頭部を上20度、右90度」とするような制御命令をロボット20の動作制御部24に送信する。
また、行動認識部14、動作決定部16、動作制御部24等は、行動センシング情報53として「1sec以内に頭部を5deg下向きに動かした後に5deg上向きに動かした」、ロボット制御情報54として「頭部を0.5secで10deg下向きに動かし、0.5secで10deg上向きに動かす」とすることを許すように構成されても良い。
なお、音声提示部11、映像提示部12、操作入力部13、行動認識部14、音声入力部17は、操作装置10外の別装置に設けられていても良い。
また、行動認識部14は、ユーザの近傍に設置されたカメラの映像から、ユーザの行動を監視し、頭部、手の位置、まぶたの動き、口の動き等を検出するものでも良い。この場合、行動センシング情報53は、物体に対して指をさす、物体を動かす、あるいは、物体が有する機能を利用する、といったデータを包含しても良い。
ロボット制御情報54は、腕を動かす、自走する等、ロボット20の行動を記述しても良い。この場合、ロボット20が記述された行動を取りうることが前提となる。
図2はロボット20の外観を示す図である。ロボット20は遠隔地のユーザとロボット20側にいる人との対話を実現するために、ロボット20側の映像を撮影する映像入力部22と、音声を収録する音声入力部21と、遠隔地側のユーザの音声を出力する音声提示部25とを備えても良い。ロボット20は、遠隔地のユーザの動きを伝達するための動作機構23を備える。動作機構23はアクチュエータにより動き、動作回転軸としてピッチ軸である上下方向、ヨー軸である左右方向の動作をする。
動作機構23は、ロール軸である首をかしげる方向の動作軸を有してもよい。さらに動作機構23はピッチ軸、ヨー軸、ロール軸のいずれかのアクチュエータを有してもよい。また動作機構23は、前後、上下、左右の並進動作が可能なアクチュエータを有してもよい。ロボット20は、さらに動作機構23として頭部以外にロボット20自体を移動する移動機構を有してもよい。移動機構は、全方向に移動可能な車輪機構、あるいは平行した2つの駆動車輪による車輪機構、のいずれでもよい。
映像入力部22は、複数のカメラを用いて距離情報を算出し操作装置10側のユーザにその距離情報を提示してもよい。また映像入力部22はズーム機構を有し、操作装置10側のユーザが所望するズームの倍率の映像を撮影してもよい。また映像入力部22は撮影方向の違う複数のカメラを搭載し、操作装置10側のユーザが映像を選択可能なようにされてもよい。また映像入力部22は、ロボット20の全周囲を撮影するカメラや、超広角カメラ、魚眼カメラを搭載してもよい。
音声入力部21は、モノラルのマイク、あるいはステレオのマイクである。また、音声入力部21は、複数マイクを利用して音のした方向を計測して操作装置10側ユーザに提示してもよい。
ロボット20は、当該ロボット20を観察する人間が、ロボット20の視線を判別できるようにする視線表示部28を備えても良い。視線表示部28は、例えば、ロボット20の目鼻等を表現した凹凸である。ロボット20が、目のような外観を有する映像入力部22を備える場合、当該映像入力部22が、視線表示部28としても機能する。
図3は操作装置10の外観を示す図である。操作装置10は遠隔地のユーザがロボット20を遠隔操作するための装置である。操作装置10は、ロボット20の動きを入力するための操作入力部13と、ロボット20側で撮影された映像を提示する映像提示部12と、ロボット20側で入力された音声を提示する音声提示部11と、遠隔地のユーザの音声を入力する音声入力部17から構成される。操作装置10を利用するユーザはロボット20側にいる人(現場の人)と音声と映像とロボット20の動きを介して対話をする。
図4は本実施形態の操作入力部13と行動認識部14の構成を示す図である。操作入力部13は、例えば、ロボット20の頭部の上下と左右の2軸を制御するための2軸のジョイスティック31を搭載する。また操作入力部13は、ロボット20の視線を記録するための視線記録ボタン32を搭載する。また、行動認識部14は、例えば、遠隔地のユーザの頭部に固定され、当該頭部の姿勢を計測する角度センサ41である。
操作入力部13は、ロボット20の頭部の動作機構23の動作回転軸に合わせてロボット20頭部のピッチ軸、ヨー軸、ロール軸の回転動作と、前後、上下、左右の並進動作のいずれかの動作を入力するための複数のジョイスティック31を備えてもよい。
図5は動作決定部16の処理の流れを説明するフローチャートである。動作決定部16は、遠隔地のユーザが遠隔地にある物体を見たときに、現場の同種類等の物体をロボット20が見るように動作機構23を制御する。このため、動作決定部16は、遠隔地のユーザの行動とロボット20の行動の対応付けの処理、及び、遠隔地のユーザの行動の認識結果によりロボット20の行動の制御をする処理を実行する。
動作決定部16は、ジョイスティック31の操作入力があるかどうかを判定する(S1)。ジョイスティック31の入力を検出した場合(S1でY)、動作決定部16は、ジョイスティック31の入力にあわせてロボット20の動作制御部24に行動を指示する制御命令を出力する(S2)。具体的にはジョイスティック31が上方向に入力をされたら、動作決定部16は、ロボット20の頭部を上向きに動作させる為の制御命令を送信する。
動作決定部16は、ジョイスティック31の傾き量によって、ロボット20の頭部の動作速度を変化させてもよい。また、動作決定部16は、ジョイスティック31の傾き量をロボット20の頭部の動作角度としてもよい。
次の処理として、動作決定部16は、視線記録ボタン32が押されたかを判定する(S3)。視線記録ボタン32が押された時(S3でY)、動作決定部16は、押されたタイミングで、行動認識部14から入力した測定値に基づいて行動センシング情報を生成する。それと共に、同部は、ロボット20の動作機構23の姿勢データを読み出し(S4)、両者を対応付けて、行動対応付けDB15に記録する(S5)。
動作決定部16は、視線記録ボタン32が押された時点の角度センサ41の測定値、または、当該時点前の所定時間(例えば数秒)以内の測定値の変化、または、同一測定値の保持時間等に基づく行動センシング情報を生成する。
視線記録ボタン32の使い方の例は下記通りである。第1ステップとして、ユーザはジョイスティック31を操作する等して、あらかじめロボット20の頭部の視線表示手段28が現場のテレビ画面等(第2の対象物)に向き合うように操作する。ロボット20が映像入力部22を備える場合、ユーザは、映像入力部22で撮影された画像を操作装置10の映像提示部12を通じて見ながら、この操作を容易に行うことが出来る。
第2ステップとして、遠隔地のユーザは、自分の近くに設置されたテレビ等(第1の対象物)の方向に頭を向けた状態にして視線記録ボタン32を押す。このようにユーザが視線記録ボタン32を押すことで、ロボット20が現場のテレビ画面を見る行動としての姿勢データ(ロボット制御情報54)と、遠隔地のユーザが遠隔地のテレビ画面を見る行動としての頭部の角度センサ41の測定値等(行動センシング情報53)が対応付けられて行動対応付けDB15に記録される。
次に動作決定部16は、角度センサ41の現在の測定値等を入力し、当該測定値に基づく行動センシング情報が行動対応付けDB15登録されている行動センシング情報53の何れかと合致するかを比較する(S6)。このとき、動作決定部16は、完全一致の判断をしてもよいし、角度センサ41から得た現在の行動センシング情報が行動対応付けDB15に登録されている値と所定値よりも近い値かによって概略一致の判断をしてもよい。この処理により、動作決定部16は、遠隔地のユーザが遠隔地の第1の対象物を見るという行動をとったと判断する。
合致した行動センシング情報53が存在する場合(S6でY)、動作決定部16は、当該行動センシング情報53に対応して行動対応付けDB15に登録されたロボット制御情報54で記述される行動を取るための制御命令を動作制御部24に出力する。
この処理により、ロボット20が、遠隔地のユーザが見た遠隔地の第1の対象物と対応付けられた現場の第2の対象物を見るという行動を実行する。
なお、行動センシング情報53およびロボット制御情報54を格納済みの行動対応付けDB15をあらかじめ用意している場合、視線記録ボタン32はなくても良い。さらに、動作決定部16は、視線記録ボタン32が押された場合の処理(S3乃至S5)が実装されなくてもよい。
なお、ロボット20の行動(ロボット制御情報54の記述内容)は、ユーザの行動(行動センシング情報53の記述内容)と同様なものである必要はない。即ち、ユーザの頭部の移動方向(上下左右等)とロボット20の頭部の移動方向は異なっていても良いし、移動角度が異なっていても良い。
本発明のロボットシステム90は、ユーザが、自分の動作等を通じて、ロボット20に所定の動作をさせること等を容易にする。その理由は、操作装置10が、ユーザが行動センシング情報53で記述される行動を取ったことを認識すると、ロボット20にロボット制御装置54で記述された行動を取らせるからである。ユーザは、自分の目的・欲求に従った行動をするだけで、ロボット20を操作することができる。
さらに本発明のロボットシステム90は、会議室等の現場にいる人々と遠隔地等別な場所にいるユーザとのコミュニケーションを円滑にする。
例えば、遠隔地のユーザが現場のロボット20の頭部を資料Aを表示する現場のスクリーンに向けずに(別の方向を見たままにして)、ユーザの手元の、資料Aを表示するディスプレイを見ると、遠隔地のユーザが資料Aを見ていることが現場の人に伝わらない。その結果、ユーザと現場の人々との議論が円滑にできないという問題がある。本発明のロボットシステム90は、そのような事態が発生することを防止する。
その理由は、行動対応付けDB15は、第1の対象物(手元のディスプレイ等)に顔を向けているユーザの頭部の姿勢記述データを行動センシング情報53に、第2の対象物(現場スクリーン)に視線を向けているロボット20の姿勢記述データをロボット制御情報54に、対応させて格納できるからである。
<第2の実施形態>
図7は、第2の実施形態の操作入力部13と行動認識部14の構成を示す図である。行動認識部14は、遠隔地のユーザが見ているものが撮影できるようにユーザの頭部に固定したカメラ42と、カメラ42の撮像結果の映像からバーコードを検出、認識し、バーコードの読み取り結果を動作決定部16に出力するバーコード認識部43から構成される。
会議出席者に配布される資料などにあらかじめバーコードを印刷しておけば、行動認識部14がバーコードを読み取ることで、動作決定部16は遠隔地のユーザが資料を見たという行動を認識可能である。また、遠隔地にある物体、たとえばテレビやホワイトボード等にあらかじめ対応するバーコードが印刷されたシート等を貼りつけ等しておけば、遠隔地のユーザがそれらの物体を見たという行動を、バーコードの読み取りで、動作決定部16が判断可能となる。
物体に貼りつけるものは、バーコードのシートだけでなく、赤外線発信機、電波発信機、QRコードなどのタグでも良い。行動認識部14はそれぞれのタグを認識できるように構成されてもよい。例えば、行動認識部14は、カメラ42に代えて、ICタグリーダを包含する等しても良い。
また、ロボット20は、頭部にカメラを搭載し、現場側に貼りつけられたタグを検出しても良い。ロボット20が、遠隔地のユーザの行動により行動認識部14がある特定のタグを検出したときに、動作決定部16が、ロボット20の頭部のカメラ42で所定のタグを検出できるように姿勢を制御してもよい。この構成にすることにより、ある物体を見るというユーザまたはロボット20の行動が、物体に貼り付けられたタグを読み取るという動作により実現される。
本実施形態の行動対応付けDB15は、行動センシング情報53として、行動認識部14が読み取った、バーコードやタグに格納されていた値を格納しても良い(図6のID=3のレコード参照)。行動対応付けDB15は、さらに、ロボット制御情報54として、ロボット20が読み取るべき、バーコードやタグの値を格納しても良い。
本実施形態の操作装置10は、ユーザの操作自由度、ロボット20の行動設定自由度を拡大する。その理由は、操作端末10が備えるカメラ42またはICタグリーダなどが、バーコードやタグを読み取って、ユーザの行動を認識するからである。また、ロボット20が備えるICタグリーダなどが、バーコードやタグを読み取って、ロボット20の行動を決定するからである。
<第3の実施形態>
図8は、第3の実施形態の操作装置10の構成を示す図である。操作装置10は、行動対応付けDB15と動作決定部16を備える。行動対応付けDB15は、行動センシング情報53とロボット制御情報54を対応させて格納する。
動作決定部16は、ユーザの行動を測定するセンサから測定値を入力して、行動対応付けDB15から測定値に合致する行動センシング情報53を検索し、検索した行動センシング情報53に対応するロボット制御情報54で記述される行動をとる為の制御命令をロボット20に出力する。
本発明のロボットシステム90は、ユーザが、自分の動作等を通じて、ロボット20に所定の動作をさせること等を容易にする。その理由は、操作装置10が、ユーザが行動センシング情報53で記述される行動を取ったことを認識すると、ロボット20にロボット制御装置54で記述された行動を取らせるからである。
以上、説明してきたロボットシステム90の各部は、論理回路等のハードウェアで実現されても良いし、コンピュータと当該コンピュータ上で実行されるソフトウェアで実現されても良い。また、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2010年7月15日に出願された日本出願特願2010−160440を基礎とする優先権を主張し、その開示の全てをここに取り込む。
Next, the form for implementing the
FIG. 1 is a diagram illustrating an example of a first embodiment of a
The
The
The
The
FIG. 6 shows an example of data recorded in the
The
The
The
The
Each data stored in the
The
As a specific example, the record of ID = 1 in FIG. 6 stores the text “I watched television” as the
If it is determined that the user's action is “angle sensor value, upper 10 degrees, left 100 degrees” from the measurement value of the
In addition, the
Note that the
Further, the
The
FIG. 2 is a view showing the appearance of the
The
The
The
The
FIG. 3 is a diagram illustrating an appearance of the
FIG. 4 is a diagram illustrating the configuration of the
The
FIG. 5 is a flowchart for explaining the processing flow of the
The
The
As the next process, the
The
An example of how to use the line-of-
As a second step, a user at a remote location presses the line-of-
Next, the
When there is matching action sensing information 53 (Y in S6), the
With this process, the
If the
Note that the behavior of the robot 20 (description content of the robot control information 54) need not be the same as the user's behavior (description content of the behavior sensing information 53). That is, the moving direction of the user's head (up / down / left / right, etc.) and the moving direction of the head of the
The
Furthermore, the
For example, a display that displays the document A at the user's hand without the remote user pointing the head of the
The reason is that the
<Second Embodiment>
FIG. 7 is a diagram illustrating a configuration of the
If a barcode is printed in advance on the materials distributed to the attendees of the meeting, the
What is attached to the object may be not only a barcode sheet but also an infrared transmitter, a radio transmitter, a QR code, or the like. The
In addition, the
The
The
<Third Embodiment>
FIG. 8 is a diagram illustrating a configuration of the
The
The
Each unit of the
This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2010-160440 for which it applied on July 15, 2010, and takes in those the indications of all here.
10 操作装置
11、25 音声提示部
12 映像提示部
13 操作入力部
14 行動認識部
15 行動対応付けDB
16 動作決定部
17、21 音声入力部
20 ロボット
22 映像入力部
23 動作機構
28 視線表示部
24 動作制御部
31 ジョイスティック
32 視線記録ボタン
41 角度センサ
42 カメラ
43 バーコード認識部
51 ID
52 行動認識種類
53 行動センシング情報
54 ロボット制御情報
90 ロボットシステム
DESCRIPTION OF
DESCRIPTION OF
52
Claims (10)
ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する動作決定手段、を備える操作装置。 Action association storage means for storing action sensing information and robot control information in association with each other;
A measurement value is input from a sensor that measures a user's behavior, behavior sensing information that matches the measurement value is retrieved from the behavior association storage unit, and is described by robot control information corresponding to the retrieved behavior sensing information. An operation device comprising an operation determining means for outputting a control command for taking an action to the robot.
前記ユーザが前記ロボットの操作を指示する操作入力手段から所定操作を行ったタイミングで、前記ユーザの頭部に固定され、前記ユーザの頭部の1以上の仮想的な動作回転軸を中心とした1以上の回転角度を測定する前記センサから測定値を、前記ロボットからロボット制御情報を入力する前記動作決定手段を備える請求項3の操作装置、を包含するロボットシステム。 The control command is input from the robot operation device connected via a network, and the head is rotated around one or more motion rotation axes according to the control command, and the motion rotation shafts are centered. Outputting the robot control information including one or more rotation angles, and
At the timing when the user performs a predetermined operation from the operation input means for instructing the operation of the robot, the user is fixed to the user's head and centered on one or more virtual motion rotation axes of the user's head A robot system comprising: the operation device according to claim 3, further comprising: the operation determining unit that inputs a measurement value from the sensor that measures one or more rotation angles and robot control information from the robot.
前記ユーザの頭部前方に固定されたリーダがデータを読み取ったタイミングで、
読み取った前記データを測定値として入力し、前記ロボットからロボット制御情報を入力する前記動作決定手段を備える請求項3の操作装置、を包含するロボットシステム。 The control command is input from the robot operation device connected via a network, and the head is rotated around one or more motion rotation axes according to the control command, and the motion rotation shafts are centered. Outputting the robot control information including one or more rotation angles, and
At the timing when the reader fixed in front of the user's head reads the data,
A robot system including the operation device according to claim 3, wherein the operation determining unit is configured to input the read data as a measurement value and input robot control information from the robot.
行動センシング情報とロボット制御情報を対応させて行動対応付け記憶手段に格納させる格納処理と、
ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する動作決定処理、を実行させる操作プログラム。 On the computer,
A storage process in which the action sensing information and the robot control information are associated with each other and stored in the action association storage unit;
A measurement value is input from a sensor that measures a user's behavior, behavior sensing information that matches the measurement value is retrieved from the behavior association storage unit, and is described by robot control information corresponding to the retrieved behavior sensing information. An operation program for executing an action determination process for outputting a control command for taking an action to the robot.
前記行動対応付け記憶手段に、第1の対象物に顔を向けている前記ユーザの頭部姿勢の測定値を前記行動センシング情報として、第2の対象物に視線を向けている、視線表示手段を備えた前記ロボットの姿勢を記述する情報を前記ロボット制御情報として格納する前記格納処理を実行させる、請求項6の操作プログラム。 In the computer,
A line-of-sight display unit that directs the line of sight to the second object with the measured value of the head posture of the user facing the first object as the action sensing information. The operation program according to claim 6, wherein the storage process of storing information describing the posture of the robot including the robot control information is executed.
所定タイミングで、前記ロボットからロボット制御情報を、前記センサから測定値を入力し、入力した前記測定値と前記ロボット制御情報を対応させて前記行動対応付け記憶手段に格納する前記動作決定処理を実行させる請求項6または7の操作プログラム。 In the computer,
At a predetermined timing, the robot control information is input from the robot, the measurement value is input from the sensor, and the action determination process is performed in which the input measurement value and the robot control information are associated with each other and stored in the action association storage unit. The operation program according to claim 6 or 7.
ユーザの行動を測定するセンサから測定値を入力して、前記行動対応付け記憶手段から前記測定値に合致する行動センシング情報を検索し、検索した前記行動センシング情報に対応するロボット制御情報で記述される行動をとる為の制御命令をロボットに出力する、操作方法。 Corresponding behavior sensing information and robot control information are stored in the behavior association storage means,
A measurement value is input from a sensor that measures a user's behavior, behavior sensing information that matches the measurement value is retrieved from the behavior association storage unit, and is described by robot control information corresponding to the retrieved behavior sensing information. An operation method that outputs control commands to the robot to take actions.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010160440 | 2010-07-15 | ||
| JP2010-160440 | 2010-07-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2012008553A1 true WO2012008553A1 (en) | 2012-01-19 |
Family
ID=45469548
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2011/066164 Ceased WO2012008553A1 (en) | 2010-07-15 | 2011-07-08 | Robot system |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2012008553A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108858207A (en) * | 2018-09-06 | 2018-11-23 | 顺德职业技术学院 | It is a kind of that Target Searching Method and system are cooperateed with based on the multirobot remotely controlled |
| CN109199240A (en) * | 2018-07-24 | 2019-01-15 | 上海斐讯数据通信技术有限公司 | A kind of sweeping robot control method and system based on gesture control |
| US20200090022A1 (en) * | 2016-12-22 | 2020-03-19 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
| CN114488879A (en) * | 2021-12-30 | 2022-05-13 | 深圳鹏行智能研究有限公司 | Robot control method and robot |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005123959A (en) * | 2003-10-17 | 2005-05-12 | Nippon Telegr & Teleph Corp <Ntt> | High presence communication conference equipment |
| JP2005269549A (en) * | 2004-03-22 | 2005-09-29 | Nippon Telegr & Teleph Corp <Ntt> | Dummy head and highly realistic communication device using the same |
| JP2008254103A (en) * | 2007-04-03 | 2008-10-23 | Sky Kk | Presenter motion reproduction robot, presenter motion reproduction robot control method and control program |
-
2011
- 2011-07-08 WO PCT/JP2011/066164 patent/WO2012008553A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005123959A (en) * | 2003-10-17 | 2005-05-12 | Nippon Telegr & Teleph Corp <Ntt> | High presence communication conference equipment |
| JP2005269549A (en) * | 2004-03-22 | 2005-09-29 | Nippon Telegr & Teleph Corp <Ntt> | Dummy head and highly realistic communication device using the same |
| JP2008254103A (en) * | 2007-04-03 | 2008-10-23 | Sky Kk | Presenter motion reproduction robot, presenter motion reproduction robot control method and control program |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200090022A1 (en) * | 2016-12-22 | 2020-03-19 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
| US11615284B2 (en) * | 2016-12-22 | 2023-03-28 | Intel Corporation | Efficient transferring of human experiences to robots and other autonomous machines |
| CN109199240A (en) * | 2018-07-24 | 2019-01-15 | 上海斐讯数据通信技术有限公司 | A kind of sweeping robot control method and system based on gesture control |
| CN109199240B (en) * | 2018-07-24 | 2023-10-20 | 深圳市云洁科技有限公司 | Gesture control-based sweeping robot control method and system |
| CN108858207A (en) * | 2018-09-06 | 2018-11-23 | 顺德职业技术学院 | It is a kind of that Target Searching Method and system are cooperateed with based on the multirobot remotely controlled |
| CN114488879A (en) * | 2021-12-30 | 2022-05-13 | 深圳鹏行智能研究有限公司 | Robot control method and robot |
| CN114488879B (en) * | 2021-12-30 | 2024-05-31 | 深圳鹏行智能研究有限公司 | Robot control method and robot |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111541845B (en) | Image processing method and device and electronic equipment | |
| CA2997034C (en) | Method and apparatus for playing video content from any location and any time | |
| US9906725B2 (en) | Portable video communication system | |
| JP6229314B2 (en) | Information processing apparatus, display control method, and program | |
| US20170357481A1 (en) | Method and apparatus for controlling surveillance system with gesture and/or audio commands | |
| CN108038726B (en) | Article display method and device | |
| CN107786827B (en) | Video shooting method, video playback method, device and mobile terminal | |
| CN110546601B (en) | Information processing device, information processing method and program | |
| CN111970456B (en) | Shooting control method, device, equipment and storage medium | |
| KR20220005087A (en) | Filming method and terminal | |
| KR20180112599A (en) | Mobile terminal and method for controlling the same | |
| US11151804B2 (en) | Information processing device, information processing method, and program | |
| US11625858B2 (en) | Video synthesis device, video synthesis method and recording medium | |
| CN111010510A (en) | A shooting control method, device and electronic device | |
| JP2011152593A (en) | Robot operation device | |
| JP2012175136A (en) | Camera system and control method of the same | |
| JP2017536024A (en) | Method and apparatus for controlling video images | |
| JP2018163461A (en) | Information processing apparatus, information processing method, and program | |
| CN108319363A (en) | Product introduction method, apparatus based on VR and electronic equipment | |
| WO2012008553A1 (en) | Robot system | |
| US20160182860A1 (en) | Methods for performing image capture and real-time image display on physically separated or separable devices and apparatus therefor | |
| JP2016151975A (en) | Synthetic video data generation system and program | |
| WO2008066705A1 (en) | Image capture apparatus with indicator | |
| JP4960270B2 (en) | Intercom device | |
| JP2007158680A (en) | Tracking imaging apparatus and tracking imaging system utilizing it |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11806883 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 11806883 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |